|
| Дата |
|
USD/RUB | 88.4375 | BTC/USD | 67898.5111 |
|
|
|
Поисковые системы Поисковая оптимизация под Google, Yahoo, Bing и т.д. |
04.04.2011, 19:27
|
Start Post: Влияние CMS и шаблона на траст
|
главный злодей гофака
Регистрация: 18.06.2007
Сообщений: 5,737
Бабло: $953848
|
Влияет ли CMS(в частности wordpress) и шаблон на траст для МФАшек?
__________________
|
|
|
06.04.2011, 11:14
|
#22
|
автоматизирую интернеты
Регистрация: 05.07.2009
Адрес: chesser.ru
Сообщений: 3,356
Бабло: $470735
|
кстати, я имел ввиду хлебные крошки именно в формате микроданных...ну либо RDF, но я что-то ачкую с rdf связываться
|
|
|
06.04.2011, 12:03
|
#23
|
Member
Регистрация: 09.12.2010
Сообщений: 78
Бабло: $9550
|
рдф прикольно конешно но думаю не скоро силу наберет.
|
|
|
06.04.2011, 12:08
|
#24
|
автоматизирую интернеты
Регистрация: 05.07.2009
Адрес: chesser.ru
Сообщений: 3,356
Бабло: $470735
|
Цитата:
Сообщение от href
рдф прикольно конешно но думаю не скоро силу наберет.
|
так гугл сам говорит: юзайте рдф и все будет гуд
ps ну или он как бы тонко намекает об этом в своих манах
|
|
|
06.04.2011, 12:22
|
#25
|
Member
Регистрация: 09.12.2010
Сообщений: 78
Бабло: $9550
|
Читал Бернерса Ли про развитие нитернета?
Он разрабатывает замену http - в принципе все к тому и идет. Скоро будут ломать не едушки а домашние микроволновки)
|
|
|
06.04.2011, 12:42
|
#26
|
автоматизирую интернеты
Регистрация: 05.07.2009
Адрес: chesser.ru
Сообщений: 3,356
Бабло: $470735
|
Цитата:
Сообщение от href
Читал Бернерса Ли про развитие нитернета?
Он разрабатывает замену http - в принципе все к тому и идет. Скоро будут ломать не едушки а домашние микроволновки)
|
ну типа того читал, я не то чтобы прям поклонник его творчества, но некоторую информацию о его трудах имею. Ему, кстати, Горбачев недавно свою премию выдал, за вклад в развитие человечества...как-то так, он даже брина обошел
А вообще, да - семантический веб - это уже почти настоящее, и кто сейчас об этом не задумывается, может оказаться либо за бортом, либо долго догонять этот поезд. Интересно, как преобразится сео после этого, хотя многие уже начали менять политику сайтов в сео. я например хотя пока особых преимуществ и выдающихся успехов у себя в этом направлении не наблюдаю, жду когда гугл побольше нажмет на "гашетку семантики"
|
|
|
06.04.2011, 14:15
|
#27
|
Member
Регистрация: 09.12.2010
Сообщений: 78
Бабло: $9550
|
Суть в том что чем дальше в лес тем толще партизаны.Каждый день появляются новые новые девайсы, и всех их полюбасу объединят в сеть. И явно не с помощью хттп
|
|
|
06.04.2011, 19:27
|
#28
|
Mamber
Регистрация: 28.12.2010
Адрес: Green Street
Сообщений: 3,182
Бабло: $478630
|
Вопрос: если я в роботсе запрещаю определенную пагу, которая на морде сайта. Эта пага будет урезать передаваемый вес прочим пагам с морды?
|
|
|
06.04.2011, 19:46
|
#29
|
Senior Member
Регистрация: 01.10.2010
Адрес: https://bankle.ru/
Сообщений: 1,136
Бабло: $306180
|
крошки передают вес наверх! забирая часть веса у внутренних страниц, это же не гуд.
или я не совсем догнал?
|
|
|
06.04.2011, 19:55
|
#30
|
Member
Регистрация: 09.12.2010
Сообщений: 78
Бабло: $9550
|
Цитата:
Вопрос: если я в роботсе запрещаю определенную пагу, которая на морде сайта. Эта пага будет урезать передаваемый вес прочим пагам с морды?
|
По идее расчет пэйджранк должен идти в цикле типа:
for page in (page1...pageN)
#гдето здесь проверка robots.txt
#дальше считается вес ссылок:
for link in (link1...linkN):
#считается удельный вес ссылки
Если так то страницы из роботса вобще не должны участвовать в расчете.
Все имхо
|
|
|
06.04.2011, 20:13
|
#31
|
Mamber
Регистрация: 28.12.2010
Адрес: Green Street
Сообщений: 3,182
Бабло: $478630
|
У меня вот какая тема...
Белый проект:
*для упрощения
в меню - к примеру КОЛБАСЫ - это категория,
вид товара под ним - к примеру КРАКОВСКАЯ - это подкатегория
Через .htaccess прописать правило, чтобы каждая подкатегории имела 2 разных урла A и Б. (т.е. по двум разным урлам можно будет зайти на 1 и туже страницу)
Левое статическое меню - все категории и подкатегории запрещаем на индексацию в robots.txt
В центральном блоке на данный момент продублированны категории из меняю, (урлы этих категорий будут под фильтром в роботсе), но надо продублировать и подкатегории только уже с другими дополнительными урлами Б, которые будут открыты для индексации.
Тем самым главная отдает вес подкатегориям (категориям незачем вес давать), далее кликаем на подкатегорию. Нам открывается соответствующий товар - КРАКОВСКАЯ КОЛБОСА. Но урлов Б уже на странице нет, а меню с урлами А закрыты роботсом, соответственно УРЛ подкатегории не слинкован с мордой, а ссылается только на страницы с товаром. Далее кликая на еденицу товара, она уже не ссылается ни на что. Тут пилим плагин перелинковки в футер и делаем так:
Товар1 ссылается на Товар2, который не ссылается уже на Товар1, а ссылается на Товар3 и так далее, а последний ТоварХ ссылается на Товар1
Нижеблок с рекомендуемыми товарами из 15 штук это сделает несколько колец линковки товаров.
Закупать ссылки на сами паги товаров. С такой линковкой страницы товара не должны улетать в сопли, а наращивать вес и распределять его тока по пагам товара, что будет продвигать их в топы.
Но вот одна пидоросня есть, ROBOTS.txt не факт, что запрещенные паги не будут урезать вес передаваемый нужным страницам. Еще не известно как оценят ПС дублирование урла на А и Б....
Я же все таки склоняюсь к решение не дрочить роботс а сделать "ненужные паги" под Jquerry, но хз говорят что боты уже умеют кликать по урлам с квэрика, но хз отдается ли им вес.
Кто что подскажет?
|
|
|
|