Обновить
5
0
Сергей Михайлов@febb

Пользователь

Отправить сообщение
Спасибо за отличные цитаты :-) Я и не говорю, что прогресс закончился, я как раз говорю что отсутствие прогресса затянулось. Вот не поленился, проанализировать в _поисковике_ Гугл два запроса «Google эволюция поиска» и «Google evolution of search». Практически никаких изменений с начала 2000-х. Да даже и с конца 90-х. Конечно, специалист в SEO найдет кучу различий в движке полугодового срока, но факт в том, что эти изменения касаются и направлены только на специалиста в SEO.

Интерфейс поиска не меняется уже десять лет. Поисковая строка, выдача ссылок и кратких аннотаций. Да, проводятся какие-то мелкие эксперименты с социализацией. Да, пытаются играть с кластеризацией, но не включают ее в действие.

Общий смысл остается тот же.

При этом конечно же алгоритм Google изменился, он стал находит точнее. Но по сути остался тем же.

Алгоритм конечно же совершенствуется, выдача улучшается. Вместе с тем регулярно Гугл судят за слишком большие картинки в поиске, за слишком большие аннотации, за «лишние» книги, слишком детальные карты или чужие адреса в кэше. Еще за что-то.

Из наших смело экспериментирует с поиском Нигма. Уже дает какую-то информацию из википедии прямо в поиске. Вот Википедия похоже и будет основой для автоматического web.

Проблема не техническая, проблема правовая. Если сейчас запустится какой-нибудь «пиратский» краулер, и потом на хорошем алгоритме сделает хороший сервис — успех ему будет. Наверное он будет достаточно скоро.
Скажем так, все что я прочитал о семантическом Вебе предполагает обработку источников. Ну то есть по сути Бернерс-Ли предлагает использовать специальные смысловые тэги, метки, метаданные. Ему, конечно, виднее, но как по мне это утопический подход. Победа обычных поисковиков это доказала. Им в чистом виде не нужен ни рсс, ни доступ к базам данных. Они «видят» интернет практически так же как живые люди, без специальных протоколов и форматов. Обрабатывают его, и находят в миллиардах текстов то, что нужно пользователю. Очень хорошо получается уже. Еще один этап в облегчении с взамодействия с интернетом — читателю не нужно прыгать из поисковика на сайты и обратно. Поисковик приходит в сайты, ну или, если хотите, сами сайты появляются под поисковой формой и в контекстных блоках. Если информация есть — какой смысл уже ее «раскладывать» по разным адресам. Дизайн? Кого сейчас волнует дизайн. Ее можно собрать воедино, как логически, там и технически. Остается лишь правовой аспект. В этом и есть суть описываемого «Автоматического Web» — избавить пользователя от поиска разрозненной информации. Давать ее сразу.
На самом деле технологии, алгоритмы уже есть. Гуглу, Яндексу под силу такое сделать, да и фактически они это делают через свои службы рекламы. Попробую дать первое представление как это может выглядеть.

Вы читаете какой-то текст, новость. Адрес в строке неважен. Внизу появляется другой текст «вам будет интересно», переходите на него. Система даже учится. Как last.fm например. И вы можете бесконечно прыгать от текста к тексту, где ссылки (переходы) будут релевантные, а не прямые, подготовленные текущим автором или алгоритмом его сервера.

Те же бесплатные тексты Википедии можно так сделать. Пока это только ссылки в подвале, подготовленные авторами статьи. Если сделать персонализацию, ориентироваться на историю просмотров пользователем, то даже внутри Энциклопедии всегда будет что почитать.

Сами тексты тоже могут по-разному выстраиваться. Если читатель хорошо знает математику, ему показываются формулы. Если ребенок — то больше картинок. В мире бесплатной информации сайт получается лишней категорией. Важен алгоритм представления этой информации.

Машины пока не научились глубоко понимать смысл текста, но найти вероятно интересное уже умеют хорошо.
12 ...
12

Информация

В рейтинге
Не участвует
Откуда
Тюмень, Тюменская обл. и Ханты-Мансийский АО, Россия
Дата рождения
Зарегистрирован
Активность