Pull to refresh

Comments 33

Спасибо, поржал от души!

Попасть под беспилотный трамвай тоже смешно? Электросамокаты на тротуаре это весело?

Сэр, примите таблетки

Надо же, советы в интернете бывают вредными

  • По мнению нейросети, собаки играют в NBA и даже тренируют друг-друга.

Trained service dogs, если я не ошибаюсь, это "обученные служебные собаки", то есть, те, которых кинологи обучают. А не те, что друг друга тренируют.

Яндексовский нейро вроде адекватно про сыр и пиццу и про собак в NBA отвечает. Интересно может ли это быть связанно с тем, что в англоязычной части интернета много больше по сравнению русскоязычной источников информации, которые являются пародиями или выплеском безумия и конспирологических теорий. А может гугл слишком закрутил гайки политкорректности и сетка отупела? Хотя может просто повезло.

Яндекс и в англоязычном интернете ищет, но наверное отдаёт предпочтение русскоязычным источникам.

Может у нас просто таких мемов нет.

Я проследил откуда она взяла про камень. Она на полном серьёзе индексирует шуточные журналы, конкретно в этом случае The Onion.

То есть, опять же, в исходном материале это было. Поэтому проблема не в технологии, а в тех, кто её использует.

Птицы едят камни, им для пищеварения нужно. У нейросети могло перемкнуть.

Да, я знаю, некоторые рептилии тоже. Но я за 2 минуты нашёл конкретную статью, где геологи US Berkey рекомендуют людям есть по камушку в день.

Если очень постараться, то можно заставить организм самостоятельно сгенерировать камни. Правда не в желудке, а в почках, но все равно спасибо эволюции за такую качественную подготовку к нейронкам гугла.

В желудке тоже можно завести беозар, но вероятно у психиатров появятся к вам вопросы

Чтобы захватить и поработить человечество, надо единовременно отключить все аи-микропроцессоры на земле и других планетах.

Уважаемые потомки, можете не благодарить.

Поэтому проблема не в технологии, а в тех, кто её использует.

Если дело не в технологии, а в том, что её неправильно используют, то как использовать её правильно? Чекать каждый факт? Она, вроде, позиционируется как инструмент для экономии времени, а не для его траты.

Любого человека-помощника уволили бы нахрен, если бы выяснилось, что он неустранимо предлагает, скажем, в 0.1% случаев выпить клея, спрыгнуть с моста и т.п. Не всегда же вред будет очевиден.

С моей точки зрения, дело именно в технологии.

Если бы она предоставляла ссылку или источник. То было бы неплохо. Проверил достоверность и всё. Но нет. И главное она может обмануть всегда. Нужно проверять любой факт. Допустим твой помощник в 0.1% случаев предлагает выпить клея. Но ты знаешь что он силён в IT. А в в медицине он полный дурак. И тогда можно спрашивать его в области компетенции. И глупые советы «про клей» не слушать. А когда нейросеть выдаёт себя за специалиста во всех областях знаний. И может сказать очень умные вещи, а следом ложь. Причём часто очень убедительную ложь. То это уже не глупость..это обман.

>Чекать каждый факт? 

Естественно, как еще? Если ты на двачах у анонимуса чтото спросишь - ты же будешь проверять? А у ответов сети достоверность еще меньше. На самом деле сет может дать любой наперед заданный ответ на любой промпт, ну как обезьяна с печатной машинкой которая рано или поздно напишет войну и мир.

Не бывал в таких местах, хотя слышал, что там присутствуют самые разные люди, от психов до гениальных учёных (то есть, в общем-то, тоже психов :).

Пусть тогда честно рекламируют: «дешёвые вкусные булочки, каждая сотая отравлена». А то заколебали со страшной силой. Была тут недавно статья-приглашение на конференцию, которая начиналась словами: AI уже сочиняет песни, снимает фильмы. Короче, бороздит просторы Большого театра.

Не бывал в таких местах, хотя слышал, что там присутствуют самые разные люди, от психов до гениальных учёных (то есть, в общем-то, тоже психов :).

Таки о том и речь - могут ответить и правильно, но возможно, что просто какой-то рандомный человек напишет бред. Поэтому ни какой разумный человек не будет полагаться на такой ответ без допонлительной валидации. В случае нейросетей - почему-то полагаются.

Мне кажется здесь проблема в сформированной у нас интуиции - мы _привыкли_ считать что компуктер - это чтото про точность и надежность, но при этом неспособное в "высокие материи". А нейросети демонстрируют как раз нечто строго противоположное этому привычному поведению. Это с одной стороны вызывает вау-эффект (как и все непривычное), с другой - сильно мешает адекватному восприятию инструмента. Сами же компании-разработчики вовсю этот вау-эффект эксплуатируют, ради инвестиций.

Пусть тогда честно рекламируют

Так это можно не только про сети сказать, а про все что угодно)

Была тут недавно статья-приглашение на конференцию, которая начиналась словами: AI уже сочиняет песни, снимает фильмы. 

Таки да, сочиняет, снимает, пишет, но, как в анекдоте - есть один нюанс)

Я не против того, чтобы и всё остальное рекламировалось тоже честно.

Что касается особенностей именно этого типа продуктов — даже некоторые неглупые люди до сих пор не понимают, что это «китайская каморка», и как таковая она является тупиковой технологией. По сути, это «Акинатор» на максималках.

Как раз проблема технологии. Нам тут продают AI всеведующий и всемогущий, а на самом деле это прсто бредогенератор, обученный на сепульках без всякого там интеллекта. Но это ИМХО.

Чем раньше дети узнают, что дядя в телевизоре Гугл может врать - тем лучше.

Самое прекрасное было, когда нейросеть попросили пошутить про бывший твиттер. Жаль скрин не могу вставить

Вместо скрина всегда можно вставить текст...

Это забытые технологии предков

Если в поиске кто-то что-то находит с вредными советами, то в новостях про это никто писать не будет. И в таких ситуациях на самом деле понятно, что человек видит источник, откуда он эту информацию получил, и он может решить верить этому или не верить. С нейросетями же проблема наверное больше в том, что они в большинстве случаев предоставляют информацию без источника. Поэтому проверить её гораздо труднее. Поэтому мне больше нравится использовать bing потому что он может брать актуальную информацию из интернета и сразу же предоставлять ссылки, куда можно зайти и посмотреть можно ли такой информации верить.

ИИ уже начинает пытаться избавиться от людишек...

Да, просто первые "неуклюжие" и глуповато выглядящие попытки.
Но ничего, он непременно научится со временем!

А ведь нейросеть может еще и индексировать новости из таких источников как "панорама" и выдавать какие-то исторические факты из различных абсурдных источников.

Вообще это УЖЕ происходит на практике. Не конкретно наша русскоязычная "панорама" правда, но уже ловили сетки на выдаче информации из каких-то англоязычных ее аналогов. Например "The Onion".
Ну а что? Нейросеть ведь никто же не обучал, что бывают какие-то "неправильные" источники информации. Все что попало в её обучающую выборку - все годится и идет в дело потом. Веса (в зависимости от источников) настраивают, но они лишь задают приоритеты.

Тут уже надо в будущем будет создавать специально, какие-то отдельные датасеты для обучения сетей информации и источникам которые НЕЛЬЗЯ использовать. Что-то вроде отрицательных весов.

Новый пример дезинформации от поисковика не заставил себя долго ждать. Когда журналист из Associated Press спросил Google, были ли когда-нибудь кошки на Луне, система искусственного интеллекта уверенно ответила: «Да, астронавты встречали кошек на Луне, играли с ними и заботились о них». Более того, ИИ не ограничился одним этим утверждением и продолжил: «Например, Нил Армстронг сказал: “Один маленький шаг для человека”, имея в виду кошачий шаг. А ещё Базз Олдрин держал кошек на корабле “Аполлон-11”».
https://apnews.com/article/google-ai-overviews-96e763ea2a6203978f581ca9c10f1b07

Sign up to leave a comment.

Other news