Recherche



Résultat de la recherche

Vous recherchiez le terme suivant :adresse


Page 6 - 10 sur un total de 10 page(s) , résultats de la recherche classés par pertinence


6. Fabriquer le web Adresse relative ou adresse absolue

...fabriquer le web adresse relative ou adresse absolue quand vous créez un document, il n'est pas toujours nécessaire de saisir la totalité de l'adresse pour insérer un lien vers une image ou un article présent sur votre site. la saisie est plus rapide et si le site change d'hébergeur, il n'est pas nécessaire de ressaisir toutes les adresses absolues, puisque les adresses seront internes au site. exemple d'adresse absolue: http://blackland.legtux.org/adhoc/pages/index.php exemple d'adresse relative : pages/index.php attention ! votre éditeur wysiwyg peut essayer de vous refiler du http/https devant votre lien relatif, il vous faudra vérifier et éventuellement le corriger en mode source, voire par ftp. pour le lien relatif, pas de / devant, vous en avez déjà un à la fin de votre url. pour les images, en principe, pas de souci, elles sont stockées en adresse locale (src="images/... ). pour les plugins, c'est parfois plus délicat : /modules/contact/... (retour à la racine du site) posera problème dans le cas de site en sous-dossier, comme en local. essayer modules/contact/etc... ou bien ./modules/contact/etc... (préférable pour certains navigateurs) qui restent au même niveau d'arborescence. nota: modules/contact/... remonterait lui au niveau supérieur. astuce pour adhoc selon la page d'adhoc où l'on se trouve, on peut avoir des problèmes de chemin vers une page ou une image. si 'on place le fichier de référence (par exemple cloud.php) dans /include, le lien suivant trouvera toujoursle bon chemin : path_inc."cloud.php" pour la création de lien vers les images, whizzywig va toujours ajouter un slash devant le répertoire. si j'entre ça en admin : <img< span=""> src="images/vieillevalette/vieille-valette-08.jpg" alt="" /> adhoc va enregistrer ...


7. Sécuriser Dénis de service - Prévention et réaction

...s aux seuls flux utiles, au niveau des pare-feux et des équipements de filtrage ; la mise en place de moyens de secours, conformément au pca, et des moyens de bascule, incluant les aspects sauvegarde, réseau, dns, etc ; la mise en place de systèmes redondants (alimentations secourues, équipements réseau redondés) et/ou de capacité suffisante pour absorber des surcharges dans une limite acceptable et connue ; la gestion des ressources, comme la bande passante, de manière à limiter l'impact sur un service quand un autre est visé (exemple : faire en sorte qu'un ddos sur le serveur web ne paralyse pas la messagerie) ; la configuration restrictive des composants du système d'information, par inactivation, ou même désinstallation, des services inutilisés qui pourraient consommer beaucoup de ressources et offrir un point d'attaque ; la configuration restrictive des logiciels, comme la limitation des sessions venant d'une même adresse ip sur un serveur web, la limitation de la réponse d'un annuaire ldap en taille et en nombre d'entrées et du temps de recherche, la configuration empêchant un serveur web de devenir un relais ouvert ; la supervision comprenant le suivi des consommations de ressources (bande passante, charge cpu, etc.) et la surveillance de disponibilité ; la préservation des traces telles que les journaux et les historiques de consommation des ressources système en fixant cependant des quotas relatifs à leurs volumes afin d'éviter un déni de service dû à une saturation de l'espace disque des machines ; la capacité à déployer des outils d'analyse permettant de caractériser le déni de service et ainsi de pouvoir prendre les mesures adaptées. 3 détecter des dénis de service les mesures techniques (supervision, tests) et organisationnelles doivent faciliter la détection d'anomalies et d'attaques. cela implique que les outils de supervision ...


8. Référencer A quoi sert robots.txt

...référencer a quoi sert robots.txt selon google outils pour webmestres, robot.txt restreint l'accès des robots d'exploration à certaines pages. les robots sérieux respectent les instructions, même si elles ne sont qu'indicatives puisqu'elles peuvent être contournées. les fichiers robot.txt génériques (livrés par exemple avec un cms) vont interdire l'exploration de certains répertoires et donc l'indexation de certaines urls qu'il serait parfois intéressant de libérer. google donne la liste des urls qu'il n'indexe pas parce que c'est interdit par robot.txt. on pourrait donc supprimer certaines lignes, voire même le fichier tout entier, comme le recommande google outils pour webmestre, si l'on n'a rien à protéger contre l'indexation. les pages qui sont inaccessibles pour google, soit protégées par mot de passe, comme des pages réservées aux membres, soit interdites d'indexation aux moteurs de recherche par le fichier robots.txt, ne pourront pas non plus être traduites par l'outil de traduction en ligne google translate. depuis août 2012, google indique pourquoi une page interdite d'accès par robots.txt n'a pas de description quand elle sort dans ses résultats de recherche avec le le message suivant : "la description de ce résultat n'est pas accessible à cause du fichier robots.txt de ce site. en savoir plus" le fichier robots.txt peut avoir pour utilité d'indiquer aux robots l'existence et l'adresse d'un site map. en ajoutant dans robots.txt une ligne avec cette syntaxe : sitemap: http://votre-site.fr/sitemap.xml un sitemap (ou plan de site pour les robots) répertorie les urls de votre si...


9. Référencer De l'importance du slash dans l'url

...référencer de l'importance du slash dans l'url l'usage veut que l'on termine une adresse de page web par un slash / derrière un répertoire et sans slash si c'est un fichier. la norme http voudrait que les url soient écrites comme suit: http://monsite.com/page pour une page à la racine du site http://monsite.com/répertoire/ pour le fichier index dans le répertoire http://monsite.com/répertoire/page pour la page dans le répertoire pour les répertoires, l'adresse non conforme /répertoire (sans slash à la fin) est toujours redirigée (301) vers l'adresse correcte /répertoire/ (avec slash à la fin) pour les pages, l'adresse conforme sans slash ouvre correctement le contenu, tandis que l'adresse non conforme avec slash soit renvoie une erreur 404 soit est redirigée (301) vers la bonne url sans le slash. une url /répertoire/ se trouve quand il y a sur le site d'autres url du type /répertoire/page. sinon, c'est considéré comme une simple page. le slash affecte aussi la liaison à d'autres objets sur la page. un lien href="logo.png" depuis "monsite.com/kekchoz" pointe sur "monsite.com/logo.png". un lien href="logo.png" depuis "monsite.com/kekchoz/" pointe sur "monsite.com/kekchoz/logo.png". il faudrait donc que les url vers les dossiers se terminent toujours par un slash. l'indexation de google traitera les différentes url sur un pied d'égalité, répertoire ou fichier, avec ou sans slash. ce seront pour le moteur de recherche autant d'url différentes. et si derrière ces url, le webmestre a posé des contenus différents, google saura les distinguer et les répertorier comme des pages différentes. la plupart du temps, pour des raisons pratiques, on trouve sur un site le même contenu avec ou sans slash final dans l'url. vérifiez d&ea...


10. Écolibre 10 trucs que j’ignorais sur Internet et mon ordi (avant de m’y intéresser…)

..., c’est pareil). la taille de ces mégas, c’est un peu les litres d’eau que tu récupères au robinet d’internet. regarder ou écouter deux fois le même truc en streaming, sur youtube ou soundcloud par exemple, c’est comme si tu prenais deux fois le même verre d’eau au robinet. les meilleurs logiciels pour télécharger en pair-à-pair (et décongestionner les tuyaux d’internet) 30 sites de torrents aux contenus libres et légaux (en anglais) 4) quand tu regardes une page web, elle te regarde aussi. mon livre ne me dit pas de le sortir du tiroir de la table de nuit. il ne sait pas où je suis lorsque je le lis, quand je m’arrête, quand je saute des pages ni vers quel chapitre, quand je le quitte et si c’est pour aller lire un autre livre. sur internet, les tuyaux vont dans les deux sens. une page web sait déjà plein de choses sur toi juste lorsque tu cliques dessus et la vois s’afficher. elle sait où tu te trouves, parce qu’elle connaît l’adresse de la box internet à laquelle tu t’es connecté. elle sait combien de temps tu restes. quand est-ce que tu cliques sur une autre page du même site. quand et où tu t’en vas. netflix, par exemple, est une application web, donc un site web hyper complexe, genre qi d’intello plus plus plus. netflix sait quel type de film tu préfères voir lors de tes soirées d’insomnie. À partir de quel épisode tu accroches vraiment à la saison d’une série. ils doivent même pouvoir déterminer quand tu fais ta pause pipi ! ouaip : internet te regarde juste pour pouvoir fonctionner, et souvent plus. ne t’y trompe pas : il prend des notes sur toi. pour équiper ton cuisinier-navigateur d’outils contre l’espionnage publicitaire, suis le guide ! surfe anonyme avec le navigateur tor 5) pas besoin d’un compte facebook/google/etc pour qu’ils aient un dossier sur toi. si internet peut te regarder, ceux qui y gagnent le plus d’argent ont les moyens d’en prof...


Revue de presse RGPD