Харьковчане будут удевлены, когда узнают, как их всенародноизбранный записывал свою предвыборную речь.
Комментарии, как говорится, излишни – видео говорит само за себя :)
Харьковчане будут удевлены, когда узнают, как их всенародноизбранный записывал свою предвыборную речь.
Комментарии, как говорится, излишни – видео говорит само за себя :)
WordPress прост и минималистичен, но в то же время именно он остаётся одним из наиболее мощных и гибких движков. Однако, если установить WordPress с набором плагинов по-умолчанию, то он не слишком приспособлен для SEO – оптимизацией нужно заниматься практически с нуля. То есть нужно было – сейчас эту работу за вас выполнит новый плагин WPSEO.
Web 2.0 Magazine представил коллекцию css-оформлений для текстовых баннеров Google Adsense. Причём, это только оформления – значит, что вам не придётся править код Adsense, тем самым нарушая лицензию программы. Довольно красивый и безопасный способ увеличить “кликабельность” объявлений легальным способом.
У меня такое ощущение, что ребята из Яндекса больше увлечены борьбой с СЕОшниками, чем улучшением поиска. Теперь они решили, что видеть ссылки на сайт – это слишком большая честь для вебмастеров. Цитата из официального блога поисковика:
Мы длительное время предоставляли уникальные возможности для веб-мастеров, в частности, выдавая полный список страниц, содержащих ссылку на заданную (оператор #link), позволяя искать слова, содержащиеся только в текстах ссылок на конкретную страницу (link#anchor), и даже допуская их сочетания с произвольными поисковыми операторами и словами.
Слухи о том, что уже не является свободным во всех отношениях источником информации ходили давно. А теперь они подкрепились и некоторыми данными, которые явно свидетельствуют о цензуре в онлайн-энциклопедии.Как выяснилось, ряд крупных американских корпораций во главе с ЦРУ уже не один месяц редактируют материалы Wikipedia.
Исследователь Калифорнийского технологического института, Вирджил Гриффит, разработал программу Wikipedia Scanner, предназначенную для опознания пользователей, которые занимались редактированием в Wikipedia. Результаты исследования оказались неутешительными: по словам Вирджила, изменения в статьи энциклопедии часто вносились заинтересованными лицами: “Конечно, мы не можем точно установить личность человека, который редактировал статьи. Однако мы почти со стопроцентной точностью можем узнать, из какой организации был редактор”.
Кроме своего прямого назначения – поиска информации, на Tafiti можно сохранять результаты поиска и даже обмениваться ими с другими пользователями. Результаты поиска можно оставить до лучших времен на специальных «полках» в виде карусели или дерева.
На Tafiti.com уже доступен поиск в новостях, картинках, поиск по книгам и в интернет.
Кроме того, результаты поисковых запросов можно публиковать в блогах и передавать по электронной почте.
Что не говорите, а сайт – это большая ответственность. Задумайтесь, ведь Вы определяют содержание статей на собственном сайте, а значит и несете полную ответственность за каждое слово на нём. Более того, Вы несете ответственность и за комментарии к вашим текстам.С юридической точки зрения, Интернет часто рассматривается вне закона. Нарушения автороского права в сети часто недооцениваются и считаются привычным делом. В основном просто потому, что владельцы сайтов не знают, что они вообще нарушают закон.
Обычно выбор движка для сайта – это выбор между функционалом и простотой администрирования. Забавно, что наиболее популярными CMS там не удается найти идеального сочетания этих качеств, а следовательно идеального решения для абсолютно всех сайтовладельцев не существует – каждая система хороша по-своему, поэтому к выбору нужно подойти достаточно серьёзно.
Для примера давайте посмотрим на сильные стороны самых популярных систем управления контентом
Публикуем интервью руководителя отдела веб-поиска компании Яндекс для июньского номера журнала “IT спец”.
Наглядный и повседневный при мер – компания решила создать свой собственный сайт для привлечения потенциальных клиентов. Что необходимо учесть уже на этапе создания сайта, чтобы он был интересен поисковым системам, в частности Яндексу?
Робот поисковой системы — программа, которая заходит на сайт на тех же правах, что и случайный, но очень любопытный пользователь. Он узнает о сайте по ссылкам на других сайтах или когда ему скажут о существовании сайта прямо (с помощью http://webmaster.yandex.ru/). Анализируя страницу, на которую где-то сослались, робот пытается обнаружить, какие еще документы есть на сайте, скачать их, проиндексировать, найти следующие документы, другой сайт… и так до бесконечности.
Некоторые сайты боятся слишком активной индексации. Во-первых, она может создать большой трафик, за который владелец сайта платит. Во-вторых, если у сайта ненадежный хостинг, а скрипты небрежно написаны, интенсивное скачивание страниц роботом может перегрузить сайт и пользователи не смогут к нему «достучаться», пока его обходит робот. В-третьих, тексты пишут люди, поэтому сайтов, где есть миллионы полезных и осмысленных страниц, крайне мало. И если сайт готов отдать, скажем, миллиард документов, значит, они генерируются скриптом и не всегда приемлемы для людей. В результате роботу приходится выбирать, какие сайты обходить чаще, какие реже. Он пытается избегать индексации техногенного мусора, старается отличать «еще один сайт» от «уникального полезного сайта».
При помощи нехитрого конструктора pagerank decoder разобраться сколько одна страница передаст другой PagrRank`a совсем несложно: тут можно изобразить любую перелинковку и увидеть будет ли от неё толк.