En este documento se explica cómo interpreta Google los ficheros robots.txt, con los que puedes supervisar cómo rastrean y también indexan los rastreadores de Google los sitios web de acceso público.
El 1 de julio del 2019,que se está trabajando parael protocolo robots.txt. Los cambios realizados en este sentido se describen en este documento.
Lista de novedades
Estos son los cambios:
<field>
que incluyan fallos simples o bien tipográficos; por poner un ejemplo, "useragent" en vez de "user-agent".Todos los rastreadores automatizados de Google prosiguen las indicaciones que se señalan en este documento. Sin embargo, estas directrices no se aplican cuando un agente accede a las URL representando a un usuario para, por servirnos de un ejemplo, traducir la página, acceder a feeds de suscripción manual o bien examinar contenido en busca de software malicioso.
El archivo robots.txt debe incluirse en el directorio de nivel superior del host, y se debe poder acceder a él a través del protocolo y del número de puerto apropiados. Todos los protocolos que acostumbran a aceptarse para acceder a este fichero sey, concretamente en el caso de la Búsqueda de Google, (por ejemplo, para rastrear de sitios) son "http" y "https". Cuando se emplean estos 2 protocolos, el fichero robots.txt se consigue a través de una petición HTTP GET no condicional.
Elementos específicos de Google: Google también acepta y rastrea archivos robots.txt en sitios web FTP. A los archivos robots.txt basados en FTP se accede mediante este protocolo, usando unas credenciales de acceso anónimas.
Las directivas que se incluyen en el archivo robots.txt se aplican únicamente al host, al protocolo y al número de puerto en el que se aloja el fichero.
/
/folder/file
/
/
:8181/
Válida para:
/
No válida para:
/
/
/
üller.eu/
--mller-kva.eu/
No válida para:
/
Válida para:
ftp://example.com/
No válida para:
/
Valor específico de Google: utilizamos el fichero robots.txt también con recursos FTP.
Válida para:
/
No válida para:
/
(si bien esté alojado en 212.96.82.21)
Válida para:
:80/
/
No válida para:
:81/
Válida para:
:8181/
No válida para:
/
Por lo general, al acceder a los archivos robots.txt, se consiguen 3 resultados diferentes:
Los errores del servidor se consideran fallos temporales que devuelven el resultado "full disallow". La petición se marcha enviando hasta que se consigue un código de resultado HTTP sin fallo del servidor. Por ejemplo, los errores quinientos tres (Servicio no disponible) acostumbran a provocar este comportamiento. Si el robot de Google no puede acceder al fichero robots.txt a lo largo de más de treinta días, se utilizará la copia en caché más reciente del fichero. Si no existe ninguna, Google considera que no existe ninguna restricción de rastreo. Para suspender de forma temporal el rastreo, se aconseja enseñar un código de resultado HTTP 503.
Elemento específico de Google: si observamos que un sitio web se ha configurado de forma incorrecta y, cuando faltan páginas, devuelve un error 5xx y no uno 404, trataremos el fallo 5xx de ese sitio tal y como si fuera un fallo cuatrocientos cuatro.
Se aguardan archivos de texto sin formato con codificación. Las distintas líneas del fichero deben estar separadas por CR, CR/LF o LF.
Solo se tienen en cuenta las líneas válidas; el resto del contenido se ignora. Por servirnos de un ejemplo, si el documento es una página HTML, solo se tendrán en cuenta las líneas de texto válidas; las demás se ignorarán y no se mostrará ningún mensaje de advertencia o de fallo.
Es posible que el contenido del archivo no se analice apropiadamente si se utiliza una codificación que genere caracteres que no representen un subconjunto de UTF-ocho.
Si hay una marca de orden de bytesUnicode opcional al comienzo del archivo robots.txt, se ignora.
Para que una línea sea válida, debe estar formada por un campo, 2 puntos (:) y un valor. Los espacios son opcionales, si bien recomendamos usarlos para mejorar la legibilidad del fichero. Se pueden incluir comentarios en cualquier parte del archivo precedidos del carácter "#". Todo el contenido que se introduce entre el inicio de un comentario y el final de la línea se considera como tal y se ignora. El formato general es
<field>:<value><#optional-comment>
. Los espacios en blanco al principio y al final de una línea se ignoran.
El elemento
<field>
no distingue entre mayúsculas y minúsculas. En cambio, el factor <value>puede que sí distinga entre mayúsculas y minúsculas, en función del elemento <field>.
No se pueden procesar los elementos
<field>
que incluyan errores simples o tipográficos; por ejemplo, "useragent" en vez de "user-agent".
Se puede implementar un tamaño del archivo máximo en cada rastreador. El contenido que supere el tamaño máximo del archivo se ignorará. En estos momentos, Google aplica un límite de tamaño de 500(KiB). Si tu archivo robots.txt es demasiado grande, combina directivas para reducir su tamaño. seo y marketing online ejemplo, pone el material que deseas excluir en otro directorio.
A continuación, se describe la notación aumentada de Backus-Naur (ABNF), tal y como se describe en.
Una o bien múltiples líneas de user-agent seguidas de una o múltiples reglas. Los conjuntos acaban con una línea de usuario-agent o bien cuando se llega al final del archivo. Es posible que el último conjunto no tenga ninguna regla, lo que implica que lo deja todo.
Grupos de ejemplo:
Se señalan cuatro conjuntos diferentes: el primero afecta a "a"; el segundo, a "b", y el tercero a "e" y a "f" al unísono. Salvo el último conjunto, todos tienen su propia línea de miembros de grupo. El último grupo está vacío. Fíjate que, de forma opcional, se han incluido espacios en blanco y líneas vacías para prosperar la legibilidad.
A cada rastreador solo se le puede aplicar un conjunto. Para determinar qué grupo es el adecuado, el rastreador busca el grupo que coincida que tenga el user-agent más específico e ignora el resto. El campo User-agent distingue entre mayúsculas y minúsculas. La una parte de texto que no coincida se ignora (por ejemplo, tanto
googlebot/1.2
como
googlebot*
son equivalentes a
googlebot
). No importa el orden en el que aparezcan los grupos en el fichero robots.txt.
Si hay más de un grupo que afecta a un user-agent concreto, a ese usuario-agent se le aplicarán todas y cada una de las reglas de esos grupos.
Si tenemos el próximo archivo robots.txt:
Los rastreadores elegirían el grupo pertinente del siguiente modo:
Consulta también información sobre los.
En esta sección, solo se tratan las reglas estándar de los miembros de grupos. En el caso de los rastreadores, estas reglas también se llaman "directivas". Estas directivas se especifican con el formato
directive: [path]
, en el que el valor
[path]
es opcional. De forma predeterminada, no se aplican restricciones de rastreo a los rastreadores detallados. Las directivas que no tengan
[path]
se ignoran.
Si se detalla, se cree que el valor
[path]
es relativo a la raíz del sitio web a cuyo archivo robots.txt se ha accedido, con exactamente el mismo protocolo, número de puerto y nombres de dominio y de host. El valor de la ruta debe iniciar por "/", que señala la raíz. La senda distingue entre mayúsculas y minúsculas. Para conseguir más información, se puede consultar la sección "Coincidencias de URL en función de los valores de ruta" que aparece a continuación.
La directiva
disallow
especifica las rutas a las que los rastreadores indicados no deben acceder. Cuando no se especifica ninguna ruta, se ignora la directiva.
Uso:
La directiva
allow
especifica las sendas a las que los rastreadores indicados pueden acceder. Cuando no se especifica ninguna senda, se ignora la directiva.
Uso:
El valor de ruta se utiliza como base para determinar si una regla se aplica o no a una URL específica de un sitio. A excepción de los comodines, la ruta se usa a fin de que coincida con el principio de una URL (y con cualquier URL válida que comience por exactamente la misma ruta). Los caracteres ASCII que no sean de siete bits que aparezcan en una ruta se pueden incluir como caracteres UTF-8 o bien como caracteres UTF-ocho codificados con tanto por ciento como carácter de escape según.
Google, Bing y otros buscadores web principales admiten utilizar "comodines" limitados en los valores de senda. Se trata de los siguientes:
*
indica 0 o bien más casos de cualquier carácter válido.$
indica el final de la URL.Coincide con estas rutas:
/fish
/fish.html
/fish/salmon.html
/fishheads
/fishheads/yummy.html
/fish.php?id=anything
No coincide con estas rutas:
/Fish.asp
/catfish
/?id=fish
Es equivalente a
/fish
. El comodín final se ignora.
Coincide con estas rutas:
/fish
/fish.html
/fish/salmon.html
/fishheads
/fishheads/yummy.html
/fish.php?id=anything
No coincide con estas rutas:
/Fish.asp
/catfish
/?id=fish
La barra inclinada posterior señala que esta ruta coincide con cualquiera incluida en esta carpetita.
Coincide con estas rutas:
/fish/
/fish/?id=anything
/fish/salmon.htm
No coincide con estas rutas:
/fish
/fish.html
/Fish/Salmon.asp
Coincide con estas rutas:
/filename.php
/folder/filename.php
/folder/filename.php?parameters
/folder/any.php.file.html
/filename.php/
No coincide con estas rutas:
/
(si bien se asigne a /index.php)/windows.PHP
Coincide con estas rutas:
/filename.php
/folder/filename.php
No coincide con estas rutas:
/filename.php?parameters
/filename.php/
/filename.php5
/windows.PHP
Coincide con estas rutas:
/fish.php
/fishheads/catfish.php?parameters
No coincide con estas rutas:
/Fish.PHP
Google, Bing y otros buscadores principales admiten
sitemap
, tal y como se define en.
Uso:
[absoluteURL]
debe llevar a un sitemap, a un índice de sitemap o bien a una URL equivalente. No es necesario que la URL esté en el mismo host que el archivo robots.txt. Pueden existir varias entradas
sitemap
. Como se trata de líneas de miembros que no pertenecen al conjunto, estos no están vinculados a ningún user-agent específico, y todos y cada uno de los rastreadores pueden seguirlos, siempre que esté permitido.
A nivel de miembro de grupo, precio posicionamiento web toledo
allow
y
disallow
, la regla más específica en función de la longitud de la entrada
[path]
prevalece sobre la menos específica (más corta). En caso de reglas en enfrentamiento, incluidas las que tienen comodines, se emplea la regla menos restrictiva.
allow
:
/p
disallow
:
/
Resultado:
allow
allow
:
/folder
disallow
:
/folder
Resultado:
allow
allow
:
/page
disallow
:
/*.htm
Resultado:
undefined
allow
:
/ dólares americanos
disallow
:
/
Resultado:
allow
allow
:
/ dólares americanos
disallow
:
/
Resultado:
disallow