Et metaskirando ?

Ok, me souviens plus bien…

Oui, c’est le script linux, mais je ne vais pas arriver à le lancer…

Bonjour Munch.

En parlant de script, je me suis permis de réécrire get_data afin qu’il puisse fournir à nouveau les bulletins nivologie via la page Nivo.php. Vu leur nombre, j’ai ajouté un fichier nivodb.csv.

Le script fonctionne via le terminal, mais je n’ai pas eu le temps de vérifier s’il s’intègre correctement.

Voici le lien du reposit. Peut-être cela vous aidera.

Bonjour,

Merci @Tom_L pour ta participation. Du coup tu as recodé la fonction ?
En fait hier soir je me suis aperçu que le script get data fonctionnait bien, mais entre temps j’avais entrepris de recorder certaines fonctions en php pour automatiser ça car l’hébergeur ne m’a pas tout de suite activé la fonction crontab qui lance le rafraîchissement le la base de données à intervalles réguliers (y compris celle des nivoses) et j’avais voulu en conséquence faire autrement…
Au final j’ai fait tout ce travail pour pas grand chose mais au moins j’aurais découvert l’informatimse !

Quoiqu’il en soit, le site remarche comme avant, avec une erreur 500 tous les 1/4 h pour cause d’exécution du script. Petite question pour les spécialistes (@alexduchablais, @Bubu etc…): faire un rafraîchissement tous les 1/4h n’est-il pas excessif ?

Non, car le graphe des nivoses change toute les heures. Si tu rafraichis toutes les heures et que tu es mal callé, le lien est bon seulement 5min par heure.

J’ai juste ré-écris la fonction de génération des liens des relevés de nivologie vers nivo_links.web, en vingt minutes sans réfléchir, en me basant sur le code disponible sur le Github de c2c. Mais je pense qu’il faudrait re-penser get_data afin de le rendre plus propre pour une tâche cron, et éviter d’avoir une erreur 500 récurrente. As-tu publié tes sources quelque part (github.com)?

Non.
La version qui tourne en ce moment est inchangée.

@Tom_L, je viens de t’envoyer une invit’ pour que tu puisses pousser ton travail directement sur: GitHub - c2corg/metaskirando

… histoire de capitaliser sur le repo existant plutôt que de disperser le travail :wink:

@Munch, je peux faire de même pour toi, si tu me communiques ton login github.

Merci d’avoir pris en main tout ça, c’est cool !

À+, Marc

@Munch, je viens de mettre à jour le DNS pour faire pointer metaskirando.camptocamp.org vers s710150168.onlinehome.fr.

Pas forcément une solution définitive, mais c’est toujours mieux que de ne rien avoir du tout.

Si au terme des discussions, la décision est prise d’héberger metaskirando ailleurs que sur ton serveur perso, on changera simplement l’enregistrement DNS.

Merci pour l’initiative et les efforts pour remettre ça sur pied !

Je n’ai pas de compte sous github et ce que j’ai fait était du provisoire plus digne de bricolage qu’autre chose.
Dans un premier temps je peux proposer:

  • De nettoyer le code des fonctions inutiles (qui concernent les fonctions de récupérations sur les sites OHM, BLMS, Nimp crew, SNGM tous disparus…) pour avoir une mise à jour plus clean de metaski et la mettre sur Github.

  • de tester le get_data de Tom_L, de manière à peut être faire deux scripts indépendants (météofrance aurait besoin d’une mise à jour 1fois/h, les sites de sorties davantage).

  • De voir à moyen terme comment l’intégrer sur l’infrastructure de c2c (je paye 14€ pour un an pour l’hébergement serveur, après ça passe à 5€/mois et à ce tarif je ne le garderai pas…).

Messieurs,

Je vous prie d’oublier mes deux posts précédents.

Avec un peu plus de calme, j’ai repensé la structure du site, tout en gardant le concept d’actualisation des données par un script bash.

L’interface est adaptée pour la plupart des supports: tablette, smartphone et ordinateur ( alias « responsive » ). Facilement modifiable via les .css, son contenu l’est tout autant grâce à Markdown.

Une fois les données générées, le dossier pèse 63Mo, le squelette pèse 900Ko, et un volume de bande passante d’environ 65Mo par jour (pour récupérer les bulletins avalanches, relevés nivologiques et les sorties).

Ne pouvant héberger les pages faute de connexion classique (4G), je ne peux que vous proposer ces quelques captures d’écran afin d’illustrer le résultat: lien#1 lien#2 lien#3 lien#4

Si quelqu’un (@Munch?) veut tester, le code source est disponible sur github.com. J’ai écrit un petit document d’aide à l’installation et essayé de commenter le code des scripts un maximum.

Étant une bille en design, ui et autre génération de contenu, je me suis seulement concentré sur la récupération des données et leur agencement. Donc les contenu-bateau du style « Vous pouvez consulter les gningningnin », sont éditables et configurables via les fichiers readme.md.

La version est en bêta, mais constitue un bon squelette de « départ » stable. « départ » car je trouve le MetaSkiRando d’origine un peu vieux (7 ans semble, apparemment, être une éternité dans cet univers numérique). C’est pourquoi je n’ai pas répondu à votre invitation @mfournier, histoire de ne pas « pousser » mamie dans les orties…

Les sorties de C2C & Gulliver manquent. Les fonctions seront ajoutées quand elles seront codées, mais là, la neige arrive (un peu), le froid s’installe dimanche et la glace comment à prendre de la consistance… y’a moyen que je parte plusieurs jours.

Cordialement,

Bonjour,
Je donne mon avis d’utilisateur. Refaire le design, pourquoi pas, perso l’actuel ne me gêne pas. Si, de plus ça permet de réduire la bande passante, encore mieux (il y avait eu des soucis à une époque où le site était chez Free)

Par contre, il faudrait garder toutes les fonctionnalités actuelles:

  • une rupture par jour et les sorties de tous les sites dans ce jour donné. Sur la copie d’écran, on voit une rupture par site, ça ne va pas, autant aller sur chaque site indépendamment.
  • garder la possibilité de filtre par massif et par groupe de massif (style ‹ autour de Grenoble ›, ‹ Savoies › ‹ Maurienne et Tarentaise ›, ‹ Alpes du Sud ›, ‹ Pyrénées › etc). Je ne l’ai pas vu, mais surement à coder.
  • une recherche texte
  • afficher auteur de la sortie, cotations.
  • afficher toutes les balises nivoses (hebdo) en un seul écran (et pas n clics).

Le site doit avoir 14 ans environ, et s’il est toujours d’actualité malgré son look old-school , c’est que ces fonctionnalités sont primordiales.
Cordialement,

1 Like

Bonjour,

Je trouve l’idée de @Tom_L très intéressante visant à modifier le « squelette » de la page afin de permettre un meilleur affichage sous smartphone.
En revanche, je rejoins @DavidL la présentation actuelle des sorties (tout mélangé) et les fonctions de tri sont à mon sens optimales et il ne faut pas changer cela. Les nivoses doivent toutes s’afficher sur la même page, sinon il n’y a pas d’intérêt particulier à passer par métaskiderando… (d’ailleurs @mfournier, qu’en est-il de la redirection depuis l’adresse c2c ? Elle ne fonctionne pas chez moi…).
ça.

J’aurai du temps ce weekend ainsi que la semaine prochaine pour tester tout ça

Munch

1 Like

Merci beaucoup beaucoup pour ton boulot.
Tu fait plaisir !

Bravo et merci ! Avec ce nom de domaine, ça devrait éviter la saturation du serveur ;). Le style old school ne me dérange pas du tout. Tout ce qui compte, c’est que c’est d’une efficacité redoutable, et tout à fait complémentaire à C2C…

J’ai rajouté les cotations c2c (lorsque dispo).
Je n’ai pas trouvé autre chose qu’un « file_get_contents » dans une boucle, pas terrible pour le traffic web… En attendant que l’api fournisse l’info directement !

3 Likes

Bravo ! Génial d’avoir remis en fonction les cotations sur metaskirando :+1:
Merci, encore merci :heart_eyes_cat:

2 Likes

Bravo pour le boulot !

@Munch : Bon, maintenant que ça remarche tu vas à nouveau lever les yeux de ton pc ? Passque il y a de la vaisselle à faire et du linge à étendre…
:kissing_heart:

2 Likes

C’est pour la bonne cause ! Merci à Munch, et à toi pour le soutient logistique.

1 Like

Et oui, vous n’imaginez pas ce que je vis à la maison…

10 Likes