Es por eso que Google pretende establecer un estándar oficial para el uso de Robots.txt
Es por eso que Google pretende establecer un estándar oficial para el uso de Robots.txt
Los expertos en SEO y los webmasters han estado siguiendo las reglas no oficiales descritas en el Protocolo de Exclusión de Robots (REP) durante los últimos 25 años al usar robots.txt.
Con esto, los editores pueden elegir lo que desean rastrear en su sitio web, y los usuarios interesados pueden verlos.
Dichas reglas también son observadas por Googlebot, otros rastreadores importantes y casi 500 millones de sitios que dependen de REP.
Y ahora, Google finalmente ha propuesto estandarizar estas reglas.
Google señaló el desafío causado por estas reglas no oficiales a los profesionales de SEO y propietarios de sitios web, ya que están escritas de manera ambigua.
Por lo tanto, el gigante de los motores de búsqueda ha documentado cómo se usa el REP hoy y envió sus hallazgos al Grupo de trabajo de ingeniería de Internet (IETF) para su revisión.
Sin embargo, es importante tener en cuenta que el borrador no altera ninguna de las reglas establecidas en 1994, sino que solo se actualiza para uso moderno.
Algunas de las reglas actualizadas son: (1) al menos los primeros 500 kibibytes de un archivo robots.txt deben ser analizados por los desarrolladores, (2) las páginas no permitidas conocidas no se rastrean durante un período considerable de tiempo cuando un archivo robots.txt se vuelve inaccesible debido a fallas en el servidor, y (3) el uso de robots.txt ya no se limita a HTTP y ahora puede ser utilizado por cualquier protocolo de transferencia basado en URI, CoAP y FTP.
Google alienta a todos a enviar sus comentarios sobre el borrador propuesto para que puedan convertirlo en la mejor versión.
La información utilizada en este artículo se obtuvo de https://www.searchenginejournal.com/google-wants-to-establish-an-official-standard-for-using-robots-txt/314817/.
Aprovechar los servicios de SEO locales asequibles es una forma efectiva de aumentar su clasificación SERP y garantizar un alto tráfico todo el tiempo.
Visite SEO PERU ahora mismo y descubra más sobre nuestros servicios disponibles.
Es por eso que Google pretende establecer un estándar oficial para el uso de Robots.txt
Con esto, los editores pueden elegir lo que desean rastrear en su sitio web, y los usuarios interesados pueden verlos.
Dichas reglas también son observadas por Googlebot, otros rastreadores importantes y casi 500 millones de sitios que dependen de REP.
Y ahora, Google finalmente ha propuesto estandarizar estas reglas.
Google señaló el desafío causado por estas reglas no oficiales a los profesionales de SEO y propietarios de sitios web, ya que están escritas de manera ambigua.
Por lo tanto, el gigante de los motores de búsqueda ha documentado cómo se usa el REP hoy y envió sus hallazgos al Grupo de trabajo de ingeniería de Internet (IETF) para su revisión.
Sin embargo, es importante tener en cuenta que el borrador no altera ninguna de las reglas establecidas en 1994, sino que solo se actualiza para uso moderno.
Algunas de las reglas actualizadas son: (1) al menos los primeros 500 kibibytes de un archivo robots.txt deben ser analizados por los desarrolladores, (2) las páginas no permitidas conocidas no se rastrean durante un período considerable de tiempo cuando un archivo robots.txt se vuelve inaccesible debido a fallas en el servidor, y (3) el uso de robots.txt ya no se limita a HTTP y ahora puede ser utilizado por cualquier protocolo de transferencia basado en URI, CoAP y FTP.
Google alienta a todos a enviar sus comentarios sobre el borrador propuesto para que puedan convertirlo en la mejor versión.
La información utilizada en este artículo se obtuvo de https://www.searchenginejournal.com/google-wants-to-establish-an-official-standard-for-using-robots-txt/314817/.
Aprovechar los servicios de SEO locales asequibles es una forma efectiva de aumentar su clasificación SERP y garantizar un alto tráfico todo el tiempo.
Visite SEO PERU ahora mismo y descubra más sobre nuestros servicios disponibles.
Es por eso que Google pretende establecer un estándar oficial para el uso de Robots.txt
AGENCIA SEO EN LIMA, Respondemos a toda las preguntas que usted tenga sobre Lo que debe saber sobre Cómo Evitar la Canibalización de Palabras Clave en tu Estrategia Seo, tal solo escribiendo a Contacto
No hay comentarios.