Язык
Контакты
GitHub
Поддержка
Регистрация
Войти
Логин: Пароль: Запомнить:
Пользователи
Голосование

    Какую CMS Вы предпочитаете

    AtomX
    Fapos CMS
    Drunya CMS
Последние комментарии
Топ пользователей
Drunya
Репутация: 110
Сообщений: 3527
Сашка_из_Шебекино
Репутация: 87
Сообщений: 1803
boriska
Репутация: 65
Сообщений: 846
ARMI
Репутация: 46
Сообщений: 1858
BAH0
Репутация: 26
Сообщений: 544
Главная » Статьи
Всего материалов:2
1
Многие сейчас задаются вопросом, будет ли Pr вообще? Может его отменили? И прочие вопросы...

Некоторые говорят что гугл отменил единоразовые апдейты pr для сайтов, т.к. это сильно грузило сервера и несло убытки..теперь для каждого сайта апдейт будет свой....

Другие утверждают что PR всё же будет, однако ГУГЛ занят Android и Chrome - а это конкуренция Microsoft и большие деньги - поэтому про PR они забыли..

Лично я откопал вот эту статейку:

Самой заметной тенденцией октября - ноября, похоже, станет оптимизаторская тревога по поводу отмены тулбарного Pagerank (TBPR). Не только в Рунете, но и по всему миру seo-специалисты обсуждают, почему значения PR на тулбарах не обновлялось с апреля, будет ли обновляться вообще и как жить, если больше не будет.

Предположения о "смерти" TBPR основаны не только на долгой паузе в обновлении и на том, что его перестали показывать многие сервисы SEO-аналитики, но и на том, что Google убрал отображение TBPR из панели инструментов для вебмасте
Автор: Drunya Раздел: Дела SEOшные Добавлено: 11 Мар 2011
У всех поисковых системы и, в том числе, у Google есть система фильтров для своей выдачи. Большой процент сайтов в интернете это мусор(дорвеи, сателиты и т.д.), то есть созданы не для людей, а для перенаправления трафика на другие сайты, для влияния на выдачу поисковых машин и т. п., следовательно, чтобы выдача поисковика была качественной, этот мусор нужно хорошо отфильтровывать и не допускать попадания мусора. Отфильтровывать нужно таким образом, чтобы не в коем случае не пострадали нормальные сайты, иначе грошь цена такой фильтрации. А ведь нет четких критериев "нормальности", по-этому проблема фильтрации является довольно сложной, и она будет решена окончательно еще не скоро. Под фильтры часто попадают нормальные сайты, и причины этого определить зачастую очень сложно.

Анализируя информацию о фильтрах (а можно анализировать лишь мнения вебмастеров, так как сам Гугл не выкладывает никакой информации о своих поисковых фильтрах и технологиях), отчетливо видно, что фильтров множест
Автор: Drunya Раздел: Дела SEOшные Добавлено: 4 Ноя 2010
1
Сейчас online: 2. Зарегистрированных: 0. Гостей: 2.
-->