Search
Write a publication
Pull to refresh

Comments 25

Ну доля истины в этом есть. Гугл приучил, что знания всегда доступны и под рукой, а эта штука приучит, что думать не надо, она за тебя все подумает. т. е. теперь не только хранение, но и обработку данных можно будет вынести на «аутсорс». Мы привыкнем, что за нас думают, и это приведёт к утрате субьектности в ещё большей степени, чем когда нашу память заменили гуглом (условно).

Я не говорю, что это прям плохо, я вижу огромный потенциал у этой технологии, но важно помнить, что у неё, как и у любой другой, есть не только плюсы.

А разве сейчас не тоже самое? Все эти алгоритмы в гугле создают информационный пузырь из которого можно выйти использовав инкогнито режим. Ну и всякие DMCA правила, которые удаляют всё, даже легальный контент, просто потому, что бот решил что он нарушает какие то лицензии.

Было тоже самое даже без интернетов, почему-то запомнилось, что в научном пузыре СССР не было тектонических плит...

Я имею ввиду, что всё ещё больше усугубится. Это будет как‑бы новый виток, уже не «информационный» пузырь, а «когнитивный», если его можно так назвать. «DMCA» будут распространятся не только на информацию, но и на само мышление.

Помню как в начале нулевых или чуть раньше все пользовались альтавистой. Это был нормальный в принципе поисковый движок, но уж больно загаженный рекламой. И когда появился Гугл со своей чистой белой начальной страницей, все с удовольствием забросили загаженную баннерами альтависту.

Теперь имеем загаженный рекламой Гугл, не поспевающий за развитием конкурентов. Лично я для себя решил попробовать Бинг, ибо Гугл уже под..надоел.

В первую же минуту, когда узнал, что туда встроят чат, решил попробовать Бинг ( до этого, были 15-ть лет вытирания его из всех предустановок, из-за как раз навязчивой рекламы ( конец нулевых, и автоматическая галочка, с Бинг, при установке других прог, которую надоедало отменять, и где-то он проникал все равно...), и отсутствия грамотного предложения " чем он лучше". Теперь, в этом же положение, бывшая, "корпорация добра", и такие же, конвульсии ( одна и та же школа спичрайтеров? ). Круг замкнулся...

Могу предложить вам попробовать Neeva. Сам переехал, полет нормальный.

Проверено, про Трампа ничего хорошего в выдаче нет

Генератор убедительной чуши - любой десятилетка. Был у меня одноклассник, который виртуозно генерировал рассказы про несуществующие фильмы...

>Генератор убедительной чуши - любой десятилетка

десятилиток запрещено ставить оператором коллцентра и использовать их как поставщика информации (поисковик), а чятГПТ почему-то нет.

в целом, всё это круто. некруто - то, как это всё хайпится и впаривается в важные области.

А чатГПТ и не используют как поисковик. Это чат-бот, его используют как ассистента. Замените его на человека и мало что поменяется (ошибок скорее всего станет еще больше, но изменится их характер).

А возможность уверенно и правдоподобно сочинять бред - как раз и является всей прелестью нейронки. Она выдает интересные весьма занимательные фантазии, фантастику и шизофреничные теории запрашиваемого пользователями вида. Она сочиняет новое, а не рассказывает старое. Если бы хотелось фактов - мы бы просто пошли в википедию.

Знаете как забавно попросить у нейронки сочинить (не написать!) полноценную научную статью о влянии кротовухи на иммунитет, с сочиненными таблицами, графиками и источниками, а потом на парах выдать студентам меда с просьбой пояснить что не так в статье (и оценить насколько они вообще материал воспринимают)? А гугл хочет всех этого лишить. И его поиск подобные "некорректные" статьи мне не предложит...

А вы, Батенькка, однако садист - мало того что бедных студентов думать заставляете, так вы же не понимаете что у них статьи скорее всего сохраняются в общем банке и потом снова идут в дело?

родился как-то у нас в конторе термин - "Спираль Информационного Инферно" - когда мелкий вброс, абсолютно внезапно начинает обрастать слухами, "фактами" и постепенно расширятся превращаясь в "информационный пик" и тренд.... и что самое поганое сделать что-то вне первых 3-4 витков спирали уже почти не возможно процесс становится само поддерживающимся пока не упрется в "супер авторитет" одного из "столпов" информационного мира - и то потом он или падает на "конспирологический слой" или начинает раскрутку по новой но уже с чуть другими контингентом.... еще очень красиво смотреть как 2-3 таких спирали сталкиваются и начинают между собой взаимодействовать....

научит людей требовать (и потом проверять) источники

Ха-ха.

Я же сказал — надеюсь.

И я ни в коей мере не имел в виду, что процесс этой учёбы будут безболезненным. Напротив, очень надеюсь, что оно порекомендует людям принимать внутрь отбеливатель, чтобы убить какой-то там вирус.

Хотя, с другой стороны, — похоже, и это не особо помогло, даже несмотря на усилия одного президента.

Люди годами перекидывают друг другу фейки, разоблачения которых гуглятся за полминуты и даже не могут запомнить того, что ты их уже тыкал при прошлой пересылки в это. Какое думать?

порекомендует людям принимать внутрь отбеливатель

Люди вполне подобное рекомендуют и даже находят последователей, готовых защищать этих светочей знаний от злобных корпорациях, наживающихся на тех, кто не готов принять Правду (с большой буквы, там обычно Много Больших Букв). Даже такое не помогает начать думать.

Даже такое не помогает начать думать.

Ну вот потому и говорю: вся надежда — на естественный отбор.

Он прав.

В тексте сгенерированном человеком есть корреляция между "правдоподобностью" (количеством деталей, их логической согласованностью и соответствия уже имеющимся знаниям ищущего ответ человека) и истинностью. Ну то есть чем более правдоподобный ответ нам нужно написать, тем проще будет реально разобраться в теме нежели фантазировать (а даже если мы ошибёмся, скорее всего наш ответ всё равно будет иметь какую-то зону применимости, просто уже, чем хотел бы вопрошающий). Исключением являются паталогические лжецы уровня интеллекта не ниже нашего, а также высокофункциональные шизофреники. Таких людей мало.

ChatGPT и аналоги же лишены человеческого "недостатка" "когда просят слишком много деталей, проще реально разобраться, чем фантазировать", а также обладают выдающейся производительностью. В итоге баланс сил резко меняется. Старая эвристика определения правды человеком на порядки теряет эффективность.

Зато можно создать нейросеть, которая будет проверять правдивость высказываний ChatGPT. Минуточку...

В итоге всё сведется к тому, что нейросети напялят одеяла aka древние философы, будут вести высокопарные дискуссии о естественных/гуманитарных науках (и не факт что на человеческом языке, возможно, это будет даже способ общения, непредставимый осмысленно для человеческого мозга), а мы будем просто открыв рот наблюдать и ждать сверхоткровений.

Ведь есть же вещи, которые нельзя однозначно назвать правдой или ложью, это может быть какое‑нибудь очень необычное переосмысление фактов и взглядов на мир, какая‑нибудь нейрогипотеза, неподдающаяся оценке органическим мозгом быстро, или не поддающаяся ему никогда, т. е. неосмыслимая для органики.

напялят одеяла aka древние философы

Это как — одеяла, которые в своё время были известными древними философами?

(aka — это аббревиатура от also known as, "также известный как").

Новые модификации терминаторов будут отличаться особой жестокостью.

Мне ChatGPT часто скидывает несуществующие API/package или методы которых нету в этих API/package

Sign up to leave a comment.

Other news