В двух словах. Товарищ Andrew Wooster взял
базу Открытого Каталога (по его прикидкам, это около 4% Интернета), отпарсил ее, достав все домены (около 4,6 миллионов), а потом самописным пауком забрал с каждого домена robots.txt. Его мускульная база потянула на 12Гб.
Потом провел незатейливый анализ - если при запросе robots.txt сервер отдает 2хх - ОК, если 4хх - сакс. Код 200 отдали 1,2 миллиона сайтов, код 404 - 3 миллиона. Остальные 400 тысяч сайтов отдавали самую разнообразную петрушку. 21 сайт отдал код, о котором даже w3 Консорциум
ничего не знает, типа 490 или 900.
Сводная таблица выглядит так:
Класс Количество Процентов
5xx 4,338 0.09
4xx 3,035,454 65.86
3xx 350,946 7.61
2xx 1,217,559 26.42
1xx 12 0.00
ХЗ 21 0.00
</pre>
Ну и, натурально, начал глумиться над незадачливыми веб-мастерами и мастерицами.
Около 65% отдают 4хх страницу - т.е. robots.txt отсутствует. 7,6% перенаправляют запрос на другую страницу - обычно на морду. И только около 26% имеют этот файл.
Некоторые специалисты решили размещать свой robots.txt не в виде text, а чего-нибудь повеселее. Самыми частыми ошибками MIME Types были:
- text/enriched
- text/css
- text/x-perl
- text/vnd.wap.wml
Присутствуют перлы:
Ну это лохи были. Теперь выступают настоящие мастера.
Религиозные тексты, каталоги
миди файлов, описания
бассейнов,
картинки... И, внимание (
!) -
сиськи
Взято отсюда
Какая-то нереальная жесть просто