тоже не раз слышал про куки и гугл... да и все остальное впринципе.
не у все в урле передается сколько результатов в выдаче показывать на странице. А парсить по 10 результатов - не интересно совсем.
solar, по твоему, можно парсить используя например file_get_contents и перемешивая запросы и частоту этих запросов - обойти баны?
помоему анриал. оно может и покатит если парсить маленькие обьемы, а вот уже для промышленных масштабов.. помоему баниться будет все.
а задумался я - ежели полностью эмулировать поведение юзера, то вероятность бана будет минимальной.. имхо..
только, мало какой реальный юзер, будет дергать первую страницу с одной ипшки, а вторую - с другой.. %) вот и спрашиваю, у кого как работают промышленные парсеры..
или реально никто не заморачивался, и все радужно?