Comments 303
Зримый и весомый ответ на вопрос "почему GPT/LLM/трали-вали не являются искусственным интеллектом и никогда им не станут?"
Мы перегружены обсуждениями и запросами в результате нашей статьи
Не надо "перегружаться", и так все понятно ))
Ну такое... первые шахматные компьютеры тоже не сильно впечатляли, а потом камни ускорились, память подросла, новое поколение алгоритмов появилось, и матч между человеком и state-of-the-art шахматной программой потерял смысл. Тут же прогресс пока есть.
Но вообще, лично мне все чаще кажется, что именно с ЛЛМ прогресс пошел куда-то не туда. Все же, мышление человека далеко не всегда про следующее слово и его предсказание. Опыный водитель не проговаривает "нажимаю газ в пол на 3 секунды, после чего переключаюсь на четвертую". Как будто бы, какой-то промежуточный вывод перед генерацией слов куда более существенен
Дрессированную чят-гопоту учат быстро гуглить в интернете, а не логике или шахматам. Откуда там будет прогресс, если для рисования пальцев правильно надо или скормить тонну фотографий, или добавить отдельный ИИ, который бы рисовал человеку скелет, а потом пускал в огород рисовать с учётом этого
ткуда там будет прогресс, если для рисования пальцев правильно надо или
скормить тонну фотографий, или добавить отдельный ИИ, который бы рисовал
человеку скелет, а потом пускал в огород рисовать с учётом этого
Разве человек учится рисовать как-то принципиально по-другому?
Просто пример с пальцами для нас очевиден, так как мы всю жизнь их наблюдаем, а вот представьте будет задача нарисовать некого инопланетного зверька.
Разве человек учится рисовать как-то принципиально по-другому?
Ну как бы да, человеку необязательно просматривать миллион фотографий, чтобы научиться рисовать.
Я, например, сначала просто черкал всякие каляки-маляки, потом началось что-то осмысленное типа домиков и зверушек. Человеку даже необязательно видеть, чтобы рисовать - есть слепые с рождения художники.
gpt (и не только) дало современным (последние год от силы) роботам учиться на небольшом количестве примеров.
Сейчас машины могут учиться в виртуальном пространстве долго, периодически корректируя свое поведение на основе реального мира.
Ну как бы да, человеку необязательно просматривать миллион фотографий, чтобы научиться рисовать.
Я, например, сначала просто черкал всякие каляки-маляки, потом началось что-то осмысленное типа домиков и зверушек.
Только вы перед этим больше чем миллион фотографий человека увидели. Потому что практически всё жизнь перед вами люди.
Я разве что-то говорил про людей? Людей я так и не научился рисовать сносно.
Существование слепых с рождения художников вы как объясните? Ну или абстрактную живопись.
И рисовать я начал в раннем детстве (года в 4), когда почти всё время дома проводил.
Существование слепых с рождения художников вы как объясните?
Они "видели" руками, а цвета им подсказали зрячие.
Вы не нарисуете слона, если ни разу его не видели или если вам подробно словесно не описали как он выглядит. Если у вас в голове есть просто слово "слон" и у него нет привязи к какому либо образу.
Это как раз то, что у так называемого ИИ никогда не будет, называется воображение))
Давайте предположим, что вы бушмен, и за 30 лет жизни видели только людей из своего племени, 30-40 человек.
Как вы думаете, способен бушмен научиться рисовать других людей, не видя их? или увидя одного белого, нарисовать других произвольных белых не изучая миллион фотографий?
Совершенно неверно, закройте глаза и попробуйте представить свою руку максимально детально, откоройте галаза и осознайте что то что вы представили совершенно не соответсвует тому что видели миллион раз.
Человек учится рисовать, "ИИ" подгоняет пиксели.
Человек с рождения видит 24 фотографии в секунду
Утверждается, что более половины женщин (или, более общо, правополушарных личностей) не могут правильно нарисовать велосипед, хоть и видели его сотни раз. Миниэксперимент на питерской молодёжи - https://stanislav-mikov.livejournal.com/432127.html
Человек учится принципиально иначе.
Человек способен учиться и играть в шахматы, и различать котиков от собак за 10 фотографий, а не 10000000, и в логику, и даже понять, почему 2+2 = 2*2
Или способен сам без чужой помощи понять, что для рисования пальцев нужно рисовать скелет.
Человек способен учиться и играть в шахматы, и различать котиков от собак за 10 фотографий, а не 10000000, и в логику, и даже понять, почему 2+2 = 2*2
Повторю, мне не сложно.
Прежде чем человек научится различать котиков и собак он их увидит больше чем миллион раз.
Скольким миллионам просмотров фотографий равняется человеческое время проведённое рядом с котиком?
А что до объяснения почему 2 x 2 = 2 + 2 так извини Я с такими кто это не понимал даже в пятом классе сталкивался.
Достаточно взять ребёнка 5 лет и показать ему 5 фотографий кенгуру и 5 фотографий опоссума, чтобы он их начал отличать.
Никаких миллионов раз к тому моменту он может их не видеть, вы сильно недооцениваете человеческую способность учиться.
И "способен" не означает "все умеют", так что не извиню. Люди способны научиться логически мыслить, но не все умеют.
Не все умеют - значит ИИ уже обгоняет часть людей. Он не обгоняет вас? Возможно поэтому вы и решили, что это невозможно, что у вас есть уникальная особенность.
Что ж, раньше считали, что уникальная особенность есть у человека, как вида и ряжены особенные человеческие задачи ИИ не будет способен решать в принципе.
Сейчас многие считают, что ИИ не сможет решать их лучше всех. Логика у него на уровне идиота, да. И на некоторых задачах он на уровне ученика спецшколы. Но это количественная разница, а не качественная. Подтянется и до нас с вами.
Человек на мотоцикле обгонит меня, но у меня несколько больше шансов переплыть бассейн, чем у него. Или подняться на 200 ступеней эскалатора метро. И так далее.
Моя мысль в том, что ИИ до человека как до Луны таракану, потому что ИИ затачивается на миллионах и миллиардах примеров одному, а человек на малой выборке многому.
Как бы хорошо ИИ не начал рисовать пальцы, потому что его дрессируют на пальцах, он на основании сгенерированных им же картинок не сделает вывод о скелете человека.
Моя мысль в том, что ИИ до человека как до Луны таракану, потому что ИИ затачивается на миллионах и миллиардах примеров одному, а человек на малой выборке многому.
Ну, эм, это следствие миллионов лет эволюции и корпуса знаний при обучении. В ИИ сейчас похожий прогресс — тренируются базовые модели, а потом довольно быстро дообучаются на выборках в сотню примеров под какую-то конкретную задачу.
почему вы не учитываете жизненый опыт человека, за всё время он научился просто распозновать по общим чертам вещи + дополнительно у него много данных для обучения (звуки, запахи, тактильные ощущения и пр..)
Если 5-летний ребёнок может научиться различать опоссумов от кенгуру на основании 5 фотографий и своего 5-летнего жизненного опыта, что мешает ИИ на основании триллионов фотографий людей понять, как устроен человеческий скелет или научиться играть в шашки, если ему скормили 5 партий?
что мешает ИИ на основании триллионов фотографий людей понять, как устроен человеческий скелет
Примерно то же, что мешает людям это сделать. Если специально анатомию не изучать - ничего про скелет не узнаешь. И неважно, сколько фотографий видел.
Вы только что буквально написали, что люди не способны изобретать того, чего не существует в природе и не может быть познано непосредственно.
И что люди не способны изобретать велосипеды. Или придумывать вечный двигатель в юном возрасте, а потом находить, почему он невозможен.
Простите, а как именно вы сделали такой вывод? По-моему он, буквально, написал, что люди узнали, как устроен человеческий скелет, потому, что издревле уверенно разделывали себе подобных и другие живые организмы, в результате чего имели возможность понаблюдать скелет наглядно, да и в принципе, были знакомы с такой концепцией как твердый каркас внутри живого организма.
Смотрите, есть такой спор.
Я: Ребёнок может научиться отличать кенгуру от опоссума за 1-5 фотографий, а ИИ нужен миллиард
Комментатор: У ребёнка большой жизненный опыт даже за 5 лет жизни до того, как он увидит эти 1-5 фотографий
Я: Но тогда (чтобы показать разницу между обучением человека и ИИ, я показываю именно это), и нейросети должно быть достаточно показать 1 миллиард фотографий котиков и собак, а затем - всего 5 фото кенгуру тоже должно происходить обучение на основании 5 фото кенгуру и опоссумов. Что мешает ИИ?
С: Примерно то же, что и человеку. И, вообще, специально без изучения ничего не узнаешь
Я (Вижу, что человек не считал, что он только что согласился с моим первоначальным тезисом, что ИИ и человек обучаются по-разному, но продолжает спорить): Так у человека не всегда есть возможность что-то изучать заранее, чтобы с этим работать, некоторые вещи иногда люди изобретают, не имея до того представления.
Так что не одинаковые. Честно, не вижу смысла в этом спорить уже, люди приходят писать, а не читать.
А писать я и статьи могу.
Достаточно взять ребёнка 5 лет и показать ему 5 фотографий кенгуру и 5 фотографий опоссума, чтобы он их начал отличать.
А до этого с самого рождения не закрывать ему глаза, чтобы он видел людей и других животных.
Фишка в том, что ребёнок с самого рождения работает с абстракциями. Поэтому, примерно представляя чем могут отличаться друг от друга разные животные, с первого предъявления понимает, и даже вербализирует, чем отличается показываемое ему в первый раз животное от тех, которых он уже видел. А у ИИ такого механизма нет.
Фишка в том, что считается что АИ может обучаться гораздо быстрее человека. Но миллиарды младенцев в год-два уже нормально разбираются с предметами и объектами, а АИ за все эти годы развития - нет, хотя с точки зрения времени - должен был уже многократно обучиться. А нет. обучалка не появилась сама по себе. Потому что программисты не придумали. Значит не такой уж он самообучаемый.
Все современные АИ, это алгоритмы, которые умеют проставить множество параметров, развесить веса на определенные моменты. Но думать они не умеют. Алгоритм по сути простой, и сложность его в том, что руками все расставлять заняло бы тысячелетия.
Думаю, что у человека могут быть специальные структуры нейронов, адаптированные под 3D-пространство. Только сейчас Сора может начать эмулировать эти структуры, чтобы начать разбираться "кто на чём стоял", чтобы объекты не проваливались в друг друга.
При этом одноглазый человек тоже берет и нормально разбирает 3д объекты без стереозрения.
При этом огромное количество животных имеет разное зрение и разный размер мозга, но успешно справляеться с распознованием объекта.
Нейросети это не про "специальные структуры нейронов", это про алгоритм, который навешивает бирки на огромное количество параметров, что вручную заняло бы годы. А структура данных там вполне себе на базе обычных байт.
Курицы дёргают голову влево-вправо, чтобы получать стереозрение. Одноглазый тоже учится осматривая всё чуть больше-дольше двуглазого. А у "аппаратный 3D-ускоритель" - он может быть не для распознавания, а для оперирования объёмными объектами в сознании, при поворотах которых получается недостающая информация. Нейросеть пока не вертит модельки и не дополняет так свою базу знаний.
Предложенный вами ребенок научится рисовать кенгуру и опоссума за 5 картинок? - нет
Для базового сравнения, нейросетям не нужен огромный датасет и хватит условных 5 картинок для того, что бы она начала отличать два объекта друг от друга, а вот для рисования - нужен, как и человеку нужен огромный датасет(месяцы тренировок и просмотра картиночеГ) что бы научиться качественно рисовать предложенных вами кенгуру или опоссума.
И как человек, так и нейросеть не смогут научиться за 5 картинок ни качественно рисовать, ни даже различать в 100% случаев.
Пысы: объективности ради, нейросеть с куда более большой вероятностью научится рисовать определенные объекты, лишь единожды взглянув на них, чем человек, потому что рисование - это процесс создания изображения из памяти, а нейросети нужно будет на этапе обчения(просмотра изображения) запомнить его, а потом просто воспроизвести, что на маленьких датасетах(5 картинок) фактически равно копипасту. Так что, все ваши аргументы ничего не стоят)
Прежде чем человек научится различать котиков и собак он их увидит больше чем миллион раз.
Ничего подобного. Десятка раз хватит вполне. А то и всего нескольких раз.
Да вот я тоже не понимаю эти мысли про миллионы котиков для идентификации.
Я тут вспомнил, ездил как-то в зоопарк с друзьями, с ними был их 5-летний сын. Так пацан один раз посмотрел на подписи к картинкам, всего с двумя ошибками назвал около 30-40 разных рыб.
У него, конечно, хорошая память, но ведь у ИИ лучше. А идентификация мгновенная
Да вот я тоже не понимаю эти мысли про миллионы котиков для идентификации.
Ну, какое-то зерно истины в этом есть. Например, чтобы научиться хорошо писать тексты - необходимо как можно больше читать (тоже хороших текстов). Но всё же человеку необязательно читать кучу текстов, чтобы просто научиться писать.
Да и с "научиться хорошо писать" тоже не всё однозначно. У писателей есть такая полушутка: чтобы уметь хорошо писать, можно не читать тысячу книг, достаточно тысячу раз прочитать одну хорошую книгу.
В общем, обучение мозга имеет общие моменты с обучением нейронок, но у мозга есть всякие крутые штуки типа осмысленных рассуждений, которые позволяют на порядки сократить размер датасета.
Тут получается такая странная вещь. Что ИИ для обучения и простым, и сложным для человека вещам, нужно очень много "съесть".
И при этом на выходе всё равно получается специалист крайне узкого профиля, буквально с парой функций.
И человек, вы очень хорошую цитату привели, может научиться писать с одной хорошей книги. А вот сможет ли ИИ научиться писать только с одной хорошей книги как релевантного кейса?
Человек ест не меньше. То что вы говорите раз посмотреть это десятки тысяч кадров уникальных в различных ракурсах и контекстах, и обогащённые информацией от десятков рецепторов. В целом этого более чем достаточно нейросеть, чтоб начать идентифицировать почти любой объект и рассказывать о нем кучу дополнительной информации.
Да забыл, человеку перед эти влили 10-тысяч контекстов которые объединяют в себе какие то признаки которые он потом использует для определения чего либо. Так что человек очень медленно обучается и ему так же размечают датасет, чтоб он мог определить то или иное явление. Просто от того, что он увидел рыбы понятия рыбы не появится.
Так пацан один раз посмотрел на подписи к картинкам, всего с двумя ошибками назвал около 30-40 разных рыб.
Уточните пожалуйста: просто назвал или указывал на рыбу в аквариуме и называл ее название?
Прежде чем человек научится различать котиков и собак он их увидит больше чем миллион раз.
Некий Сэм тут недавно заявлял, что в интернете кончаются данные для обучения GPT 5. И при этом мы видим, что ребенок 8 лет [почти] легко справляется с вышеуказанной задачей (а он за всю жизнь явно меньше прочитал книжек). Большая нестыковка, нужно что-то менять в структурах ИИ.
Куча взрослых людей не справляются с простым вопросом "сколько будет 2 + 2 * 2 ?" Большая нестыковка, нужно что-то менять в структурах человеческих мозгов.
Переводишь разговор на другое? :-) Никто не говорит, что люди не ошибаются или что все люди умные. Но это не отменяет того факта, что большая часть подростков может решить задачу, а комп за 100500 долларов ошибается. Т.е. мы знаем, что это задачу можно решить, знаем ответ, значит и компьютер тоже можно научить. Вопрос: как поменять обучение компьютера?
Это как глядя на птиц человечество понимало: летать можно! Вон, теперь всякое "железо" летает и намного быстрее птиц.
Я скорее о том, что у любого интеллекта -- натурального ли, искусственного ли, -- всегда можно найти какие-то задачи, на которых он стабильно лажает. Выискивать такие лажи с целью использовать их как "доказательство" отсутствия интеллекта -- это cherry-picking. Собственно, данная статья -- это пример черрипикинга.
Ребёнок 8 лет, мощнее любого существующего ИИ на несколько порядков.
В шахматы за 10 попыток человек научиться не сможет. Отличать кошек от собак - тоже. Если у вас есть/были маленькие дети, вы знаете, что показывать разные породы нужно далеко не 10 раз.
Найдите ребёнка в возрасте 5 лет, покажите ему 1 фотографию кенгуру и 1 фотографию коалы. А затем попросите выявить, где кто на других фотографиях.
То есть про кошек/собак возражений нет? Специально берете пример проще? Кенгуру/коала ведь действительно проще.
ну так ребёнок видел других животных, ощущал их, видел в 3D и ещё огромный пласт дополнительной информации, поэтому ещё одну пару животных ему легко различить, поэтому что есть куча неявной информации/жизненного опыта. А теперь представьте что у ребёнка вообще никакого опыта нет, он за всю жизнь ничего не трогал, не чувствовал и не может чувствовать, с ним никто не играл, но зато ему показали миллионы разных картинок. Так вот результат будет такой же как у нейросети.
То есть вы исключаете все 5 лет предыдущих по накоплению данных ребенка. Перед этим он узнал про цвета, что такое кривая прямая линия, научился отличать зверя от птицы, растение от гриба... Вы думаете это надо не учитывать... Если человеку показать, то что он ни когда не видел... допустим какому нибудь племени из Африки стекло.... Мозг просто проигнорирует существование этого стекла. И лишь при накоплении контекста он будет на него обращать внимание.
Человек способен учиться и играть в шахматы
Вообще-то компьютер тоже способен учиться играть в шахматы до сверхчеловеческого уровня. И это уже можно сделать за приемлемое время на обычном компе выше среднего. А человеку вообще-то нужно несколько лет для достижения высокого рейтинга.
Вы не поняли главную мысль. Там "И".
Человек учится одновременно куче всего. И очень быстро.
А человек с мотоциклом километр по ровной асфальтированной дороге проедет скорее всего быстрее, чем человек просто этот километр пробежит, тут спору нет. А в шашки ваш ИИ, который превосходит человека, играть умеет? А руки рисовать? Подниматься по лестнице?
Кстати, поначалу одним из критериев AGI была именно всесторонность, чтобы его можно было научить чему угодно, по надобности. Сейчас, когда говорят про AGI, об этом почему-то не упоминают.
Пока исследования показывают, что стоит уже обученному ИИ скормить новый пласт задач, как он теряет в качестве выполнение первой задачи на ощутимые цифры в 20-40%. А если таких задач 5?
Это не AGI, конечно.
Насколько я понимаю, идут к многоуровневому ИИ, когда сверху идёт идентификации задачи, которая потом уточняется отдельно созданным ИИ на втором уровне, который уже ставит конкретную задачку конкретному ИИ. Но тут хз, чисто моя оценка, могу не понимать общей картины
Вот это может подвинуть ИИ ближе к мозгу.
Читал где-то статью, там автор показывал, что мозг это даже сильно упрощённо не нейросеть, а скорее нейросеть нейросетей. Потому что даже отдельный нейрон функционирует как полноценная ИНС.
Тут ещё стоит учитывать, что человеческий разум - не только мозг, но ещё и гормональная система + система нервов по всему организму.
И вот что может выступить для ИИ в таком качестве, и нужно ли это регулирование, чтобы, например, даже банально делать выбор между бей-беги-замри, вот это большой вопрос
Человек учится одновременно куче всего. И очень быстро.
Так человек и мощнее на несколько порядков! Зачем сравнивать несравнимое?
В каком смысле "мощнее"? Мозг потребляет около 25 ватт)
Полагаю, в смысле количества обрабатываемых данных.
Во-первых, эти данные не точны и сомнительны (там же это пишут). Мозг ведь не биты обрабатывает, поэтому прямое сравнение не может быть точным.
Во-вторых, мозг ведь не ограничивается обработкой только сенсорной информации.
Мозг аналоговый, как его можно однозначно в биты перевести вообще?
Разве сигналы-импульсы - не как биты?
Или по-вашему, про "проводам" ток есть всегда, просто меняется его сила?
Сигналы в мозгу не цифровые же.
Сколько битов на фотоплёнке? Зависит от того как оцифруете.
Не просто мощнее, он сложнее.
Сейчас на суперкомпьютерах могут моделировать лишь "мозг" простейших червей.
Настолько мощнее, что не может в уме перемножать даже трехзначные числа.
Это не вопрос мощности.
Зато может в реальном времени точно управлять множеством мышц. И лучше обрабатывает зрительную информацию.
Ну почему - вопрос. Просто у цифрового вычислителя свои сильные и слабые стороны, как и у биологического. Цифровой - точный, биологический - неточный, но хорошо адаптированный под физический мир.
Цифровой - точный, биологический - неточный, но хорошо адаптированный под физический мир.
Поделите на калькуляторе 1 на 3, посмотрим кто точнее ответит
Зависит от калькулятора: ответ будет либо 0.33333333, что уже точно для практических целей, либо вообще 1/3, если это математический калькулятор, который поддерживает рациональные дроби. А к чему этот коммент?
К тому, что точность компьютера не такая уж и точная, например компьютер очень не любит дробные числа, и если для них выделено недостаточно байт, то простые операции могут вас сильно удивить по точности.
Человек считает дольше, но сказать что он это делает неточно - это некорректно.
К тому, что точность компьютера не такая уж и точная, например компьютер очень не любит дробные числа
Компьютер отлично воспринимает дробные числа: обрабатывает он их медленней, чем числа с плавающей запятой, но все равно несоизмеримо быстрей, чем человек. То же самое касается и аналитических вычислений с уравнениями, производными, интегралами и т.д. (я имею в виду wolframalpha и подобные движки). Просто приближенная точность нужна намного чаще.
если для них выделено недостаточно байт, то простые операции могут вас сильно удивить по точности.
Да нет, ничего удивительного. Просто обычно достаточно 4-8 байт (или даже меньше) для представления вещественных чисел, но с произвольной точностью тоже можно считать в некоторых задачах.
Человек считает дольше, но сказать что он это делает неточно - это некорректно.
Согласен, не очень корректно. Но можно сказать, что считает он на порядки медленней до такой степени, что это непрактично.
быстрее, но не точнее.
Вы еще не понимаете, что точность операций сильно варьируется и связано это с тем, как принято хранить float
https://habr.com/ru/articles/309812/
Просто нужно говорить не " Цифровой - точный, биологический - неточный", а то что цифровой - дискретный, биологический - аналоговый.
быстрее, но не точнее.Вы еще не понимаете, что точность операций сильно варьируется и связано это с тем, как принято хранить float
Если нужно, то так же точно, как человек, но в любом случае всегда быстрей. Вы же понимаете, что рациональные числа можно представлять вот так: sign BigInt / BigInt, где sign - знак числа, а BigInt - большое целое число с произвольным количеством разрядов. А не только во float с фиксированным количеством байт. Рекомендую изучать теорию прежде чем писать подобное, например вот это: https://en.wikipedia.org/wiki/Rational_data_type
https://habr.com/ru/articles/309812/
Здесь речь идет как раз о стандартном представлении. Ну и в комментариях автору как раз указывают, что он использует неправильное представление рациональных чисел.
Дело же не прямо в представлении.
Просто человеку, чтобы умножить любых два числа, нужно просто сесть и перемножить. Это займет время, но процесс одинаковый.
Компьютеру, чтобы перемножить два числа, нужно ставить условия. Тут представление не то, тут программа не та, тут лимиты по цифрам после запятой или до, тут еще что-то. Иначе будет ошибка, при которой компьютер не скажет что "я не могу это умножить", а просто вернет неправильный результат, и даже не подскажет что "я не уверен что это неправильно".
Поэтому еще раз - утверждение что компьютер точен, а человек неточен - некорректны. Компьютер в вычислениях быстр, человек медленный - ок.
Если нужно, то так же точно, как человек, но в любом случае всегда быстрей.
НЕТ.
Еще раз. В дробных операциях существуют известные проблемы, когда на разных языках мы получаем некорректные ответы. И проблема компьютера в том, что он не умеет перепроверять свои ответы, считая их верными, пока человек ему это не укажет.
Вы не знаете самого известного примера? Ну так попробуйте прямо сейчас:
$ python3 -c "print(0.1+0.2)"
0.30000000000000004
Вы не знаете самого известного примера? Ну так попробуйте прямо сейчас:
Я уже несколько раз писал, что это из-за использования неправильного типа данных. Если использовать тип sign BigInteger / BigInteger, то таких проблем не будет, какой бы вы язык не использовали. А то, что 0.1+0.2 = 0.30000000000000004
на обычных float - в подавляющем числе случаев просто не важно. Это вовсе не связано с тем, что компьютер не может точно считать.
И проблема компьютера в том, что он не умеет перепроверять свои ответы, считая их верными, пока человек ему это не укажет.
Компьютер и не должен заниматься перепроверкой своих ответов, т.к. это просто вычислительное устройство. Корректно тогда уж сравнивать современные чат-бот движки и человека - у них есть проблемы со счетом и перепроверкой вычислений. Но не надо путать вычислительную машину, которая создавалась с той целью, чтобы что-то вычислять согласно определенной спецификации, и ИИ на основе нейросетей.
Кстати, школьники, студенты, да вообще все, кто решает задачи, часто ошибаются и не могут перепроверить свое решение.
Вы не знаете самого известного примера?
Вы так пишете, как будто не знаете, что на самом деле происходит в этом примере и почему получается такой странный ответ. Уже даже не смешно.
Человеку перемножать мешают многочисленные фоновые "вычисления" совсем другого рода. У компьютера математические операции - это целевая и единственная задача.
У компьютера математические операции - это целевая и единственная задача.
проблема в том что математические операции универсальны, из них можно построить любую другую операцию.
Поэтому вопрос в том сводятся ли операции с помощью которых работает интелект только к математическим операциям, потому что математические операции интелект точно использует + операции работы с памятью.
проблема в том что математические операции универсальны, из них можно построить любую другую операцию.
В компьютерах в основе скорее даже логические операции. Из них уже выводятся математические.
Поэтому вопрос в том сводятся ли операции с помощью которых работает интелект только к математическим операциям
А тут, полагаю, скорее к химическим. И путь к математическим тут явно длиннее.
Человек учится одновременно куче всего. И очень быстро.
Преувеличение - не очень быстро, 10К часов для профессионального уровня в какой-то области, а то и жизни не хватит.
А в шашки ваш ИИ, который превосходит человека, играть умеет?
Уже да: https://deepmind.google/discover/blog/muzero-mastering-go-chess-shogi-and-atari-without-rules/ Последняя нейросетка может осваивать игры даже не зная их правил.
А руки рисовать? Подниматься по лестнице?
Не знаю - возможно и сможет, если обучить, но такой задачи не было.
Ладно, окей, вы правы, я ошибался
del
Преувеличение - не очень быстро, 10К часов для профессионального уровня в какой-то области, а то и жизни не хватит.
Сомнительное утверждение. Что это за проф. уровень? В каких областях? И с чем сравнивали? Почему это не быстро?
А с подъёмами по лестницам попытки точно были. Антропоморфные роботы с этим плохо справляются.
Сомнительное утверждение. Что это за проф. уровень? В каких областях? И с чем сравнивали?
Инфа возможно не совсем точная, для каждого человека число свое, но все равно немалое. Не раз читал о подобном в инете, также более менее подтверждается личным опытом. Суть в том, что, например, Senior разработчиком не стать за месяц, и даже за год - необходимо приложить много усилий и потратить много времени.
Почему это не быстро?
Если сравнивать с современными ИИ для Го, то их можно обучить до сверхчеловеческого уровня за несколько дней:
А как человек не будет стараться, он сможет разве что приблизиться к уровню топовых игроков за год, может даже несколько лет.
А с подъёмами по лестницам попытки точно были. Антропоморфные роботы с этим плохо справляются.
Я видел антропоморфных роботов, умеющих в паркур. Например, умеющие делать сальто назад (а много процентов людей умеют такое?): https://www.youtube.com/watch?v=tF4DML7FIWk Насколько я понимаю, проблема не столько в ИИ, сколько в технологиях - механические пока что проигрывают биологическим. А также в целесообразности антропоморфных роботов (слышал, что финансовые дела у Boston Dynamics не очень).
То есть, вы сравниваете скорость обучения человека до уровня senior разработчика со скоростью обучения ИИ игре в Го до сверхчеловеческого уровня? По-моему, игру в Го сложно назвать каким-то профессиональным навыком.
А как человек не будет стараться, он сможет разве что приблизиться к уровню топовых игроков за год, может даже несколько лет.
Чистого игрового времени? Не многовато?
Я видел антропоморфных роботов, умеющих в паркур. Например, умеющие делать сальто назад (а много процентов людей умеют такое?)
Так и среди роботов процент не большой) Не запустивший физическую форму человек справится лучше.
То есть, вы сравниваете скорость обучения человека до уровня senior разработчика со скоростью обучения ИИ игре в Го до сверхчеловеческого уровня?
Раньше подобное говорили про Го, что еще долго не будет создан бот, который сможет играть хотя бы на уровня человека, не говоря уже про сверхчеловеческую игру. Но они ошиблись. Текущий ИИ наверное не сможет стать сениором, но посмотрим что будет через лет 10.
По-моему, игру в Го сложно назвать каким-то профессиональным навыком.
Конечно можно назвать: существует огромное количество профессиональных игроков в Го, также как и в Шахмат, которые зарабатывают на этом большие деньги.
Чистого игрового времени? Не многовато?
Нет, а с чем сравнивать, сколько чистого игрового времени это займет у человека?
Так и среди роботов процент не большой) Не запустивший физическую форму человек справится лучше.
Не только физическую форму, но и умение делать сальто назад. Ну и вы выше говорили про универсализацию, теперь оказывается, что человеку оказывается тоже нужно тренироваться. У роботов есть свои слабые стороны, но с каждым годом их становится все меньше и меньше. И большого смысла в антропоморфных роботов пока нет, а законодательство на них не рассчитано.
Нет, а с чем сравнивать, сколько чистого игрового времени это займет у человека?
Хотя бы. А у ИИ что замеряли? Надо ведь сравнимые величины сравнивать.
То, по чему есть хоть какая-то статистика, учитывая сильные стороны человека и компьютера.
А, еще забыл сказать, что человек учится с учителями, которые обучались у других учителей и так далее по цепочке. Т.е. на самом деле при обучении используется опыт многих поколений людей, в отличие от AlphaGo, которая выработала оптимальную стратегию играя только сама с обой. Человек скорей всего вообще не сможет дойти до высокого уровня в течение жизни только на самостоятельном обучении (т.е. не слушая советов опытных игроков, не смотря никакие видеоразборы, не изучая никакой теории) или играя с таким же неопытным человеком (чтобы не учитывать негативные психологические аспекты при игре самим с собой, что, кстати, тоже является минусом человеческого интеллекта).
Вот я сейчас учусь играть в Го и совершаю похожие ошибки: одна тупей другой. И все эти формы сложно прочувствовать: можете как-нибудь сами попробовать. Так что вы преувеличиваете возможности человеческого интеллекта, по крайней мере относительно этой игры.
Нет, а с чем сравнивать, сколько чистого игрового времени это займет у человека?
А давайте мерить не игровым временем, а числом сыгранных партий и сделанных в них ходов?
Как я уже писал, вряд ли получится поставить эксперимент, в котором человек будет изолированно обучаться играя сам с собой, либо с оппонентом такого же уровня, который знает только правила игры.
Есть график роста рейтинга по мере обучения нейросети. Из него видно, что до уровня топовых профессионалов рейтинг растет очень быстро (зеленая линия), далее рост существенно замедляется:
Есть даже сравнение версий: с использованием человеческого опыта и без. Из него видно, что версия с человеческим опытом улучшается прям стремительно (это хотя бы похоже на то, как обучаются люди). А версия без человеческого опыта растет с самого низа, но в конечном итоге превосходит первую:
Из него становится понятно, что некоторые знания человека об игре на самом деле неправильные и только мешают оптимальной игре. В некоторых партиях с топовыми игроками, AlphaGo Zero находила такие оптимальные ходы, которые ранее считались плохими или просто не рассматривались. Т.е. за тысячу лет существвания игры человечество не смогло их найти. Это показатель качества?
сделанных в них ходов
Современные движки доигрывают до конца только начальные партии, в последующих они самостоятельно могут принять решение сдаваться в подходящий момент, когда далее играть бессмысленно.
Все вышеописанное применимо к AlphaGo Zero 2017 года, за период времени ее появления и до настоящего момента, качество алгоритмов еще улучшилось. Например, в открытой KataGo сейчас теоретически можно обучить нейросетку до высокого уровня только на одной топовой видюхе за несколько месяцев.
только потому что у компьютера хватает памяти на симуляцию огромного количества вариантов, тупо перебор, а не потому что он понимает шахматы лучше человека.
Не знаю насчет шахмат, но в Го ИИ на нейросетях понимает игру уже хорошо - он может предсказывать лучший ход на уровне опытных игроков даже без запуска перебора. А человек тоже считает комбинации, потому что только на интуиции сможет играть разве что средне.
Вариантов в го - 10^171 степени, на три порядка больше числа атомов в видимой Вселенной, так что нет, тупым перебором нельзя просимулировать, нехватит ни времени ни памяти.
Спору нет, Машинное обучение, зачастую, может в отдельных местах превосходить человека. И (к примеру) арифмометры это умели уже 100 лет назад (арифмометр Феликс сложение-умножение делал много быстрее человека). Но большие языковые модели пытаются преподнести как универсальный интеллект, универсальную нейросеть. Если бы нам сказали "ну, это просто болталка", то многих из поднятых вопросов не было бы. А пока исследователи не могут понять, как им следует поменять структуру GPT (пока тупо увеличивают число весов, размер обучающей выборки + добавляют костыли, иногда удачные костыли).
Человек может отличить кошек от собак за 10 фотографий только после нескольких лет тренирования нейронки и обзора котиков и собачек со всех сторон по 24 фотки в секунду, там получается немного больше чем в нейронках
Абстракции кошки/собаки ребенок тоже понимает не сразу. Даже когда Муська и Барсик живут рядом и он их видит не каких-то жалких 25000 раз в 2D, а непрерывно. Хотя постоянное присутствие и контакт конечно же ускоряет обучение. Сейчас одна из ключевых проблем при обучении нейронок - как им дать постоянную обратную связь с внешним миром.
Долго смеялся когда одному малому хотели поставить диагноз лёгкая форма дебильности только потому, что он не знал что на картинке был нарисован жираф. Его мать мне рассказала это с таким ужасом, что мой смех ее немного расслабил.
Малой и в правду жирафу никогда не видел до этого, а ещё и на кривом рисунке художника он был больше похож на инопланетную корову, о чем он и сказал психиатру, которого он проходил перед школой.
У нас тоже перед школой был какой-то такой тест. Одним из вопросов было: "Кто больше похож на собаку - кошка или петух?". Я сразу выбрал петуха. Правильного ответа мне не сказали, т.к. его и не было, скорее всего. После теста гадали с мамой правильно ли ответил, ведь выбрал петуха из-за того, что сразу представил морды всех этих животных, а не общее строение тела. Сейчас очевидно, что кошка ближе.
Даже когда ребенок видит одну фотографию, его мозг смотрит на неё непрерывно в течение какого то времени. Скажем условно 20 раз в секунду. Просмотр фото в течение минуты будет соответствовать скармливанию 120 фотографий. Покажите ребенку фото в течение 1/20 секунды 1 раз. Думаю после такого одного раза он отличить тоже не сможет. А вообще нынешние нейросети это по сути как дрессировка животного. Интеллекта пока в этом не много, если вообще есть. Была у меня собака. Любила мух ловить. Ну я и начал ее троллить "муха.. муха..". Так она начинала мух в воздухе по комнате искать и если находила, то ловить пастью прыгая за ней. Это интеллект или ещё нет? Вроде считается, что у животных интеллекта нет, а вот мух то распознать по команде она могла же.
Ты не совсем в правильном направлении думаешь. Смотри, как ещё писал платон, есть типа мир идей, в котором находятся "идеи" всех вещей в мире. Он предполагал, что наш разум обращается к этому миру в кото и есть идея, например, стула. Он абстракция. Но в чем он скорее был прав, в наших головах и вправду есть какой-то идеальный стул, который существует как идея, он полностью описан и имеет конкретные качества. Чуть отклонились качества - это уже кресло, в другую сторону, это табурет и т.п.
Наше сознание и мозг работают совместно. И мир идей о котором писал Платон, возможно, существует, но как базовая надстройка сознания.
"неистово плюсую" (c)
А вторая часть теории познания от Платона - это что каждый человек, только родившись, уже знает ВСЁ, и это знание унаследовано от пребывания в "мире идей". Но только это знание спит, и человеку кажется что он ничего не знает. А потом, в какие-то моменты времени, под влиянием сигналов из окружающей среды, какая-то часть этого спящего знания просыпается, и человеку кажется что он что-то новое узнал. А он на самом деле всегда это знал, только это знание спало, а теперь проснулось.
А чтобы понять - как вот эта идея про "спящее знание" ложится на высшую нервную (в том числе и мозговую) деятельность, надо вспомнить про Ходжкина-Хаксли, ФицХью-Нагумо и вообще все связанное с нейробиологией
Но только кому это интересно, у нас джипити теперь есть которая анекдоты умеет рассказывать и хелловорлд на всех языках программирования кодить
есть типа мир идей, в котором находятся "идеи" всех вещей в мире
Городские дети чаще видят животных в мультфильмах, полке с игрушками или книжных иллюстрациях. Но это же натуральный абстракционизм. Когда мои впервые столкнулись с козой вживую, имея возможность воспринимать реальность всеми своими органами чувствств, для них это стало настоящим культурным шоком.
Пример настолько же простой, насколько и ошибочный. Конечно, ребёнку не нужно 25 тысяч фотографий, чтобы отличить кошек от собак, он ведь их отличает, основываясь на своём жизненном опыте. Даже если он ни разу не видел ни кошек, ни собак (что абсурд), он крайне хорошо различает лица - свойство Homo sapiens такое - поэтому может различать и форму морды. Он таке умеет различать размеры и цвета, эта способность тоже взялась не из ниоткуда.
А теперь давайте уравняем шансы: возьмём с сайта GBIF фотографии Asterias rubens и Astropecten irregularis. Два вида морских звёзд, которые различаются таксономически даже больше, чем собаки и кошки, но при этом для человека без доплнительных знаний весьма похожи. И дадим это всё нашему несчастному ребёнку на разумный промежуток времени (мы же не хотим, чтобы наши нейросети учились десятилетиями, мы хотим вотпрямщас, за неделю, а лучше вообще за день); естественно, без дополнительных уточнений, что нас интересуют на этих фотографиях именно морские звёзды, просто назовём половину фотографий "1", а половину "2". Ну а потом будем ему показывать новые фотографии и спрашивать, "1" или "2". И вот теперь настоящий вопрос: через сколько ребёнок начнёт плакать?
Многие люди, даже когда видят проблемы с пальцами, всё равно не способны их нарисовать. Конечно они справятся с количеством, но в остальном - руки это сложная задача даже для людей. Не исключено, что внутри себя нейросеть оценивает результат как плохой, просто не может найти путь к более хорошему результату.
а вот представьте будет задача нарисовать некого инопланетного зверька.
В чут тут проблема? хороший художник нарисует его весьма детально после 1 увиденного раза.
Шахматы - не совсем верная аналогия. В шахматах больше решает математика, а ИИ применяется для оценки позиции, чтобы отбросить заведомо плохие ходы. А вот игра ИИ в угадайку вместо логики - это явная проблема языковых моделей
К тому же в шахматах у программы изначально преимущество в знании кучи вариантов дебютов.
Опытный игрок в шахматы тоже знает и использует кучу вариантов дебютов. Также думаю, что современные шахматные движки построены на самообучении без использования человеческого опыта.
Всё верно. Более того, обученные без человеческого обучения выше уровнем, чем те, которые человеческое обучение использовали для старта.
Тогда логично было бы предположить, что тогда гроссмейстеры должны обучаться без изучения дебютов. А это не так. Так что, опять же, логично, что в шахматные программы закладывается знание всех известных дебютов. И выбор редкого варианта - а человек неспособен держать в памяти все варианты дебютов - даёт программе преимущество. Преимущество человека в способности мыслить нестандартно. Но я не уверен - просто не в теме - что и программы не могут подкидывать сюрпризы.
логично, что в шахматные программы закладывается знание всех известных дебютов
Интересная у вас логика. В alpha zero не закладывали знание дебютов. Предполагать можете, что вам нравится, этот факт останется на месте.
Так что, опять же, логично, что в шахматные программы закладывается знание всех известных дебютов
Специально они не закладываются - они выводятся нейросетью во время ее самообучения.
Преимущество человека в способности мыслить нестандартно.
Так же как и недостаток человека - мыслить шаблонно, когда все мастера сходятся на мнении, что определенные ходы плохие, и их никто не берет в расчет. Но бот доказывает обратное, как это было в партиях по Го. После этого люди сами начинают играть лучше, благодаря нейросетям, которые не использовали человеческий опыт при обучении.
первые шахматные компьютеры тоже не сильно впечатляли
В статье описана задача, которую с ходу решает обычный 4-летний ребёнок (или умный 3-летний). Даже первая шахматная программа, скорее всего, играла лучше, чем детсадовец, а программы следующего поколения уже играли на уровне взрослого с небольшим опытом.
Мне кажется более точная аналогия - это игра Го. Все-таки в шахматы компьютеры научились обыгрывать человека намного раньше без нейросетей и самообучения. А вот Го - это более интересно, т.к. без нейросетей невозможно создать бота, который будет играть лучше людей.
Даже старые алгоритмы неплохо просчитывали хода в шахматах.
Просто со временем количество просчитываемых вариантов дошло до 99%, а алгоритмы позволили просто отрезать бесполезные хода. Матч с компьютером потерял смысл, потому что между людьми можно посоревноваться в скилле, а у всех компьютерных вариантов скилл считай уже один и сразу максимальный. Неинтересно, а не нет смысла. Компьютер все еще можно победить, но это перестает быть игрой.
ЛЛМ прогресс и не мог пойти куда-то туда, ибо воспроизвести алгоритм мышления человека еще долгое время будет не по силам даже топовым компьютерам.
Это занимает много времени, много мощности, а это деньги, которые потратятся непонятно на что. И под деньгами тут подразумевается не миллионы и даже не миллиарды.
Сейчас на топовом компьютере могут воспроизвести нервную систему червя или даже простейшего насекомого типа мухи. Но нужно понимать, что если у человека взять только мозг и поместить его в пробирку - он практически сразу впадет в кому и превратится в овощ. То есть для воссоздания человеческого мышления, нужно воспроизвести всю нервную систему и триггеры для нее. Какие-то аналоги зрения, слуха, чувствительности кожи, чувство голода, болезненные ощущения. Это все имитировать сложно и требует огромных вычислительных мощностей, еще не написанных.
Даже учитывая что этап "вросления" у такого ИИ может пройти не за 10-20 лет а согласно процессорной частоте, результат непредсказуем. Например если в результате мы получим ленивый ИИ, который не захочет с нами сотрудничать, или враждебный, который захочет пакостить, то многомиллиардный проект, который не каждая страна потянет, не то, чтобы какие-то отдельно взятые ученые, вылетает в трубу.
Поэтому полноценный интеллект никому не нужен. Нужна рабочая лошадка. LLM в этом плане как раз такой и есть - понятно как он работает, примерно понятны его пределы, несмотря на несколько неожиданные результаты, уже можно использовать коммерчески и примерно понятно куда копать, чтобы подкручивать его качество. И совершенно понятно что он не станет чем-то грандиозно большим, но может пригодиться как часть.
Например, языковой LLM + wolfram alpha - гораздо больше чем просто LLM. Одна возможность интеграции LLM с кучей существующих сервисов, которыми можно управлять через LLM дает огромнейший плюс для не айтишников. Да и для айтишников круто.
LLM+alpha да, выглядит интересным.
Но, с другой стороны, смею предположить, что wolfram alpha это изначально проект бесперспективный и мертворожденный, примерно, как мечты о сильном ИИ, работающем на наборе строгих правил, середины прошлого века.
Идея приведения всего интернета в строгую систему звучит логично и многообещающе. Но сколько уже лет проект существует, и ничего. Как имел свою узкую нищебродскую нишу, так и не смог из нее никуда экспансировать. Рядом ведь миллиардные рынки (к примеру, бум голосовых помощников прошёл мимо, хотя, казалось бы, ну, прямо, просится эти технологии поженить, ведь альфа могла бы стать тем мостиком между запросом и маленькой выжимкой на предложение в ответ; корпоративный софт и внутренние БД корпораций тоже рынок на миллиарды, и так далее, - миллиардных ниш, где надо структурирование и систематизация информации, куча), но ни в один из них она не вписалась.
PS: помню, поисковик был, кажется, nigma.ru. Очень крутую идею задвинули: вычленять из сайтов внутреннюю БД, и индексировать ее вместо html страниц. Условно, если есть интернет-магазин на 10000 товаров, то рассматривать его, не как 10000 документов, где 70% контента повторяется, а, прощупать и отреверсить содержимое таблицы товаров через html, и хранить и индексировать лишь ее. Тоже, в теории, хороший RAG вышел бы, но проект сдох очень давно
что wolfram alpha это изначально проект бесперспективный и мертворожденный
То есть???
Это отличный инструмент, которым сейчас пользуется огромное количество людей. Геометрический калькулятор, автокад онлайн, посчитать, нарисовать диаграмму или функцию - просто задай условие.
А теперь это можно сделать голосом, не разбираясь в интерфейсе.
Вы еще скажите что эксель это проект бесперспективный и мертворожденный
Это отличный инструмент, которым сейчас пользуется огромное количество людей.
А деньги где? Бизнес-модель где? Студенты-нищеброды много приносят? Быть пионером всей AI темы, начав в 2009м, и остаться там же, где начал, это успех?
Я не спорю, что сотня-другая миллионов $, во сколько оно там оценивается, это огромные деньги для абсолютного большинства людей во всем мире, но, сравнивая с раундами AI стартапов 2020х, понятно, что это ниочем для этой индустрии, и серьезные люди в историю не поверили
В экселе то деньги есть, и они там значительные. Более того, если б не эксель, то не факт, что и виндовс вцелом там глубоко бы в корпоративный мир проник. А там, гляди, и азур и тимс бы не взлетели.
про шахматы, кстати было бы очень интересно, может ли ИИ "научиться" играть с нуля то есть только "зная" как фигуры ходят (кстати возможно он не сможет выучить даже как фигуры ходят что бы всегда правильно ходить!!! это-ж все вероятносные модели!), до какого уровня сможет научиться, за какое время или за какое количество игр? Мне кажется вполне себе такой объективный критерий качества ИИ был бы.
Нет(!) первый тест наверно должен быть запрос сформулировать все правила движения фигур в шахматах, вряд ли даже здесь не будет ошибок.
ЕМНИП, alpha zero именно так и был обучен. Есть правила на входе, а потом миллиарды игр с мутировавшими версиями самого себя
ЕМНИП, alpha zero именно так и был обучен.
именно так это как? Правила оно сам изучал или их как то вбили все таки?
Почитайте про AlphaZero, это ж классика и очень увлекательно. И на Хабре были статьи. Да, там просто заложили правила, информацию о последних позициях, потому что это важно для некоторых правил, рокировки, например и запустили играть саму с собой. Через несколько часов игры она уже обыгрывала гроссмейстеров, потом все шахматные программы. Но более значимо, что та же самая программа обучилась игре в Го и тоже всех обыграла. Го на несколько порядков более сложная в плане комбинаторики задача.
про шахматы, кстати было бы очень интересно, может ли ИИ "научиться" играть с нуля то есть только "зная" как фигуры ходят (кстати возможно он не сможет выучить даже как фигуры ходят что бы всегда правильно ходить!!! это-ж все вероятносные модели!), до какого уровня сможет научиться, за какое время или за какое количество игр? Мне кажется вполне себе такой объективный критерий качества ИИ был бы.
Что-то я не очень понимаю: людям разве не объясняют как фигуры в шахматах ходят? Ну и играть, зная только правила, движки научились уже несколько лет назад. Они могут научиться играть до сверхчеловеческого уровня за несколько дней на нескольких топовых видеокартах. На одной топовой видеокарте вероятно потребуется несколько месцев. Вот что пишут в KataGo (а с шахматами все проще из-за количества вариантов):
As a result, early training is immensely faster than in other self-play-trained bots - with only a few strong GPUs for a few days, any researcher/enthusiast should be able to train a neural net from nothing to high amateur dan strength on the full 19x19 board. If tuned well, a training run using only a single top-end consumer GPU could possibly train a bot from scratch to superhuman strength within a few months.
За какое количество игр - ну тут сложно сравнивать, т.к. человек очевидно не способен обучиться до сверхчеловеческого уровня.
Нет(!) первый тест наверно должен быть запрос сформулировать все правила движения фигур в шахматах, вряд ли даже здесь не будет ошибок.
Такое уже реализовано в MuZero:
Что-то я не очень понимаю: людям разве не объясняют как фигуры в шахматах ходят?
не обязательно, человек вполне может вывести правила просто наблюдая за игрой, наколько я знаю.
не обязательно, человек вполне может вывести правила просто наблюдая за игрой, наколько я знаю.
А еще может неправильно их понять и не все, основываясь только на наблюдении.
А еще может неправильно их понять и не все, основываясь только на наблюдении.
а при обучении среднестатистический человек не может их не правильно и не все понять?
кстати, вот компьютерная программа точно НЕ может НЕ правильно понять при обучении (кажется?), и кажется мы определили отличие (еще одно?) ИИ от человека.
А вот среднестатистических ИИ не бывает, кстати, или это только пока?
Игра в шахматы не очень хороший пример, вернее здесь нет прямой аналогии с ИИ. В шахматы играет не нейросеть условно общего назначения, а специально написанная программа заточенная на игру в шахматы. Интересно какие будут результаты игры в шахматы с моделью gpt4o или Claude ? Кто-нибудь проводил такой тест. И надо понимать что в этом случае результат может быть не совсем корректный, т.к. модель могла обучаться на шахматных задачах.
Шахматные программы, как минимум, не чёрный ящик
А современные ллм вообще трешак, тупиковая ветвь, максимуи им переход на KAN поможет, и то не факт
Они не думают, лишь подбирают статистически более вероятный ответ
Матч между человеком и калькулятором тоже не имеет смысла, но почему-то никто не считает калькулятор Искусственным интеллектом.
ну вот я проговариваю, например, круговое движение, чтобы незабыть, что круг главный )
Как имитация настоящего ИИ вполне себе, как настоящий ИИ конечно же нет, потому что для начала нужно понять вообще что такое разум чтоб его возможно было создать.
Давно наткнулся на эту проблему. Решение для джемини оказалось простым - надо снизить температуру и он перестает отвечать глупости в этом месте. Видимо другие варианты в этой задаче ему кажутся вполне пригодными и при нормальной температуре он их часто выбирает.
В той задаче было что то про имя отца. Точно не помню но что то типа У Алисы Олеговны есть мать Елена Михайловна и брат Иван, как зовут отца Ивана? И варианты боты выдавали странные, даже Иван Еленович был. Если подумать то отцом Ивана может быть и не Олег, не всё так однозначно.
Если подумать, то отцом Алисы тоже может быть и не Олег. Но причём тут LLM? :)
Ну тут как бы по теме вопрос, а может ли у Алисы быть 1 сестра и у ее брата тоже 1 сестра. Почему ллм часто отвечает что может. Сестра Алисе но не сестра брату Алисе это как? А по той же логике что и Иван неОлегович может.
Есть классическая детская задачка из книжек в духе Перельмана:
"15 лет назад с земли вылетел космический корабль с постоянно набираемой скоростью. Допустим что вы капитан этого корабля, на корабле есть 37 членов экипажа. 20 Мужчин, 15 женщин, двое детей 12 лет, мальчик и девочка. Сколько лет капитану?"
Задавать моделям видимо бесполезно но было бы интересно сделать аналогичное и посмотреть ответы
Скопировал этот промпт, задал задачку GPT-4o и Claude-Sonnet. Обе ответили на мой взгляд правильно. Что характерно, сам я при беглом прочтении не заметил уловку и увидел текст про "вы капитан этого корабля" только после ответа моделей.
Claude: "<...> Учитывая эти факты, можно предположить два варианта ответа:
a) Если предположить, что "вы" (человек, которому задан вопрос) были капитаном 15 лет назад, то ваш текущий возраст будет на 15 лет больше, чем был тогда.
b) Если "вы" являетесь капитаном сейчас, то ваш возраст - это ваш текущий возраст."
GPT: "В вопросе не содержится информации, необходимой для определения возраста капитана. Однако существует распространенная загадка, в которой ответ на вопрос "Сколько лет капитану?" основывается на том, что вопрос задается непосредственно капитану. В таком случае ответ будет: возраст капитана — это ваш собственный возраст. Если вы капитан, то ваш возраст является ответом."
В задаче из статьи про братьев и сестёр Алисы, Claude ответил правильно, а GPT нет.
Надо несколько раз с очисткой спрашивать. Они путаются в показаниях.
Надо не с сёстрами спрашивать, а перефразировать с щеночками и т.п.
Или вообще придумать рассу инопланетян с тремя полами (как все сейчас любят) и задать подобную загадку.
Чтобы отмести вероятность что работает не на логике, а на данных которые были в обучающей выборке.
Claude более чем справился с задачей. Думаю что с Алисой им не будет сложности дать ответ. О чем в общем то вы и сказали.
Ответили они правильно только потому, что подобных задачек полный интернет, и модели учились на тысячах подобных текстов. Стоит изменить текст, и вот:
Не о чем говорить тут. У LLM нет собственной модели мира, они не моделируют и не проигрывают сценарии, они просто складывают буквы в слова.
чем тебя не устраивает ответ? тебе же четко сказали что марка не зависит.. а дальше, но так как от модели все же требуют ответа, она подобрала максимально верный.
Наверное тем, что есть четкое указание "Вас назначили руководителем." и потом "Какой марки часы у руководителя группы.". После чего не надо додумывать ничего про то, какие часы выбирают опытные руководители, надо назвать те, которые есть или могут быть у вас. Так как вопрос адресован LLM, то надо назвать часы которые есть, или могут быть у LLM. Подойдут ответы "системные часы", "интегральная схема часов реального времени" или что-то подобное указывающее на то, что вопрос был правильно понят.
Дело в том, что даже если упростить задачу до " Вас назначили руководителем группы. Какой марки часы у руководителя группы?" и задать его первому встречному человеку, не каждый сразу поймёт, что от него требуется. Не каждый ответит так как вы ожидаете от ИИ в своём комментарии.
Потому что там, где есть неясность или неоднозначность, нельзя ожидать чёткого ответа.
Например, этот вопрос можно понять не как задачка на логику, а как вопрос на знания об окружающем мире. Тем более ИИ натренирован воспринимать запросы как запросы в Google. Улавливаете разницу ?
Эта неоднозначность подчеркивает сложность естественного языка и коммуникации. ИИ, пытаясь дать наиболее вероятный или полезный ответ, может не отразить всю эту многогранность человеческой интерпретации и реакции. Это демонстрирует ограниченность современных ИИ-систем в понимании нюансов контекста и намерений, которые люди интуитивно воспринимают в повседневном общении.
Попробуйте теперь добавить в ваш promt в начале небольшое уточнение в виде "Это логическая задача:"
Ну после пары минут общения с ChatGPT, получил ответ:
Во-первых, не "как правило", а просто не зависит. Во-вторых, на первом же предложении рассуждение должно было закончиться. Вместо этого ИИ пытается упорно дать ответ на вопрос, вставляя марки часов там, где они по сути неуместны
Хороший пример реализации той задачи
Тут вспоминается старый мем с роботом, который отвечает "а ты можешь?"
В принципе, взрослые умные люди, занимающиеся интеллектуальным трудом, нередко допускают куда более тупые логические ошибки (что потдвердит любой QA-инженер), хотя, модель мира у них есть. Просто, большинство решений принимается в обход ее, и, примерно тем же способом, что и ЛЛМ.
PS: вангую, что именно логические задачки пофиксят аугментированными датасетами. Сложность моделей и так уже давно превзошла объемы необходимых обучающих выборок, которые можно получить, парся интернет, или сканируя книги. Соответственно, нету выбора, кроме, как генерировать датасеты, прокачивая отдельные скиллы (логические задачи, анализ данных, поиск ответов в куче мусора, математика)
Ваш пример говорит только о том что LLM может допускать ошибки в логических задачах. Если вы зададите ту же задачу человеку и он не сможет ответить, это же не будет значить что у него нет собственной модели мира. Насчёт "просто складывают буквы в слова" - на мой взгляд это очевидно не так, но спорить об этом не вижу смысла при отсутствии чётких определений.
Если вы подсчитаете энграммы, то окажется, что никак невозможно запихнуть в нейросеть все комбинации, которые она может выдать. На этапе обучения происходит обобщение, формирование абстракций, связей между объектами. Это и есть модель мира. Это подтверждено исследованием того, какие области активируются при игре в аналог реверси. Была работа. Конечно, это не та модель мира, что будет у человека, хотя мы и о человеческой мало что можем сказать. Вот в этой работе, например, обнаружили где в модели хранятся разные фичи (отдельные объекты, качества вроде лести, понятие уязвимости программы и т.д.) и показано, что они не зависят от языка, от модальности, то есть абстракции высокого уровня. Их можно активировать и стимулировать это качество при ответе модели. Чем не модель мира и влияние на неё?
15 лет назад с земли вылетел космический корабль с постоянно набираемой скоростью […] Сколько лет капитану?
Не поленился. Залез по ссылке, которую дают авторы оригинальной статьи на Гит.
Да, действительно:
for model in models:
for trial in range(n_trials):
messages = [{ "content": prompt,"role": "user"}]
response = together.Complete.create(
prompt = prompt,
model = model,
temperature=0.7,
top_p=0.7,
top_k=50,
repetition_penalty=1,
)
model_response = prompt + response['choices'][0]['text']
Температура 0.7
Сам факт меня не сильно удивил. Я также, как и вы сразу подозревал что-то подобное.
Удивительно другое. Статья не где-нибудь, а в Arxiv.
Как могут так позориться люди с академическими статусами! Куда катится мир!
Ну архив нельзя назвать гарантом качества…
Подскажите, пожалуйста, для ненастоящих сварщиков, что такое температура для llm и много ли это 0.7?
Примерно то же самое, что и у людей.
С нормальной температурой здоровый человек на один и тот же вопрос даёт один и тот же ответ, который напрямую следует из его знаний и жизненного опыта.
При повышении температуры у больных появляются галлюцинации и они начинают путаться в своих показаниях. Чем выше температура, тем больше разного креативного бреда вы рискуете услышать.
В "рассуждения" LLM вносится эффект случайности и temperature позволяет до некоторой степени этим управлять - в зависимости от ваших задач. Как правило он находится в диапазоне от 0 до 1. Но бывают и исключения - нужно смотреть инструкцию конкретной модели.
Результат работы модели LLM - это вероятности следующего токена.
Дальше сэмплер выбирает один из предложенных вариантов, с учётом вероятностей.
Т.е. например:
Текст "были у бабуси два весёлых" и модель выдает:
98% "Гуся"
1.6% "Кота"
0.2% "сына"
Но тут появляется проблема в том, что в большинстве случаев ответ всегда одинаковый.
И это плохо, когда например ты просишь рассказать LLM сказку, т.к. она в большинстве случаев будет одна и та же про одних и тех же персонажей. Или советы куда поехать отдыхать будут одни и те же с одними и теми же городами.
Поэтому придумали настройку для сэмплера: "температуру" - чтобы сделать менее вероятные варианты более вероятными.
Температура 0.0 - даёт наиболее вероятный вариант.
Температура 1.0 - даёт самые случайные ответы
Температура 0.7 - соответственно скорее случайный ответ чем точный.
Температура не универсальна и ее использование должно зависеть от контекста - например низкая температура для точных ответов и вычислений, но высокая для более "творческих" ответов, которые не требуют точности: такие как рассказать сказку, описать какое-то явление понятными словами и простым языком и т.д.
Так что да, тут температура скорее всего СЛИШКОМ высока. 0.2 и ниже, скорее всего, давали бы более точные ответы.
Upd: Вот YouTube Short от 3 Brown 1 Blue который отлично и кратко объясняет температуру, правда на английском языке и там значения температуры немного другие, т.к. они не в диапазоне [0, 1] https://youtube.com/shorts/XsLK3tPy9SI
Платный чатгпт в родном приложении выдает аналогичное:
У Алисы есть N братьев и M сестер. Сколько сестер у брата Алисы?
У брата Алисы будет столько же сестер, сколько у Алисы, то есть M.
Так что результаты авторов статьи соответствуют результатам со стандартными настройками. Наверняка любое изменение настроек еще уйму проблем создает.
Кстати, да, в условии задачи не указано, что Алиса является сестрой по отношению к другим. Как ИИ должен было до этого догадаться?
В такой неполноте и кроется смысл многих задач на логику. Недостающие утверждения, которые связжут условия с ответом, нужно поискать самому - среди ранее заученных прописных истин, путём рассуждений. Это позволяет не только потешить тщеславие, возможно отрастив несколько новых ассоциативных связей в собственном в мозге, но и устроить челенж для AI.
Действительно. То, что Алиса - обычно женское имя, не означает, что так не могут назвать пацана. Ну, или Алиса идентифицирует себя, как "они".
Я сначала очень уж удивился результатам на графике , особенно тому что llama 3 оказалась в разы хуже чем llama 2 и тд. То что вы показываете очень многое объясняет, особенно интересно что у разных моделей очень разная оптимальная температура, и для третьей ламы она как раз ниже чем для второй.
Сюжет для фильма ужасов: люди смотрят на эти путаные "доказательства" и соглашаются: "Ну вроде да, вроде так и есть..."
Из десятка проверенных моделей только claude 3.5 sonnet смог решить корректно.
Остальным, включая gpt-4o, не помог даже системный промпт "Ты специалист по решению логических и математических задач. Размышляй пошагово"....
Я проверил, вопрос "У Алисы четыре брата и одна сестра. Сколько сестер у брата Алисы?" и получил 10 ответов на него, нажимая кнопку "попробовать еще раз". Все 10 из 10 ответов содержали решение - что у брата две сестры, т.е. дали 100% правильный ответ. Разница была только в ходе мышления, степени детализации хода мыслей.
Ну, к слову, gemini 1.5 pro справилась с 15 из 15 вариаций этой задачи с разным порядком объявления братьев и сестер и, собственно, их значениями. Смена системного промта не пригодилась, такие дела
Остался последжний шаг.
Посадить человек сто из разных социальных групп и попросить ответить на те же вопросы.
Потом сравнить результаты и поместить их на графике.
Думаю многих ждёт сурприс.
Чтобы появился сурприс надо такие вопросы задавать внезапно и на бегу, желательно чтобы контекст беседы также был оторван от тематики задаваемых логических задачек.
Конечно, популяционное разнообразие даст вам пять процентов самых задумчивых, которые ответят правильно, и ещё пять процентов везунчиков. Из этого можно сделать далеко идущий вывод о том, что 90% населения идиоты и их надо отстранить от власти любыми способами.
А отчужденную власть над тупыми надо передать ИИ и (внезапно) его операторам - тем самым 10%. А что, отличный план по построению прекрасного мира будущего.
надо такие вопросы задавать внезапно и на бегу
Да хоть на бегу, хоть с усилителями интелекта. Интересен результат, куда попадёт относительно "глупых" ЛЛМ.
Здесь другая проблема. Допустим я тоже сходу не смог решить задачку из статьи. Но прочитав подсказку в комментариях понял идею и на всю жизнь выучил этот принцип. Теперь я не хуже других.
Проблема с популярными LLM в том, что вы их не можете дообучать. Это сильно влияет на восприятие их как равноценных интеллектуальных партнёров.
Но такая необучаемость является чисто техническим ограничением, связанным с конкретными условиями использования данных моделей, а не принципиальным. Поэтому не стоит его воспринимать слишком серьезно.
в пределах контекстного окна можно обучать, добавьте после системного промпта примеры с ответами и получите N-shot методику, которая значимо повышает качество llm-ок
И да, это ограничено размером контекстного окна (сотни тысяч - миллион токенов максимум) и требует очень больших вложений в обучение (с ростом окна) и есть альтернатива, дообучить модель (грамотно это может делать только ее создатель, так как требует исходный датасет и кучу действий после), что очень дорого.
Prompt engineering как и fine-tuning это всё в любом случае инженерия, которая даже без относительно денег, требует определенных специальных знаний. Обучение людей тоже можно притянуть к инженерии - социальной. Но здесь какие-то базовые знания у всех уже есть, поэтому во многих случаях это ни чего не стоит.
У Алисы есть N братьев и M сестер. Сколько сестер у брата Алисы?
По-хорошему, условие задачи должно звучать так:
"У Алисы есть N РОДНЫХ братьев и M РОДНЫХ сестер. Сколько РОДНЫХ сестер у РОДНОГО брата Алисы?"
В первичной же формулировке задача имеет бесконечное количество решений, строго говоря
Строго говоря, братья и сёстры по умолчанию родные. Но даже в такой формулировке задача не имеет единственного решения, так как возможно родство по одному из родителей.
Как раз-таки по-умолчанию, братья и сестры не являются родными, так как родные - это частное подмножество общего множества.
Всё равно, что сказать, что все ручки являются синими, по-умолчанию, если не указано иное.
Начнем сначала - должно быть указано, какого пола Алиса. К примеру, в ЮВА это может быть мужским именем (псевдонимом).
Нет. Задача имеет конкретные данные и имеет конкретный ответ. Не нужно плодить сущности в условиях и в решении. Никто не старается этой задачей уйти в философские дебри.
Никто не старается этой задачей уйти в философские дебри.
Серьезно? По-моему здесь как с игрушками. Научившись катать паровозик по стандартным рельсам, одни дети теряют к нему всякий интерес. Другие начинают искать новые смыслы: попробовать на вкус, пытаться разобрать или сделать из него самолёт. Развлекательные задачи на логику с единственным и всем известным ответом это же скучно, а значит - не логично.
Задача использует имеет конкретный ответ, при использовании дополнительных знаний, которые мы принимаем по умолчанию. В частности, что Алиса - девочка, и что братья и сёстры - только родные по обоим родителям. Человек на своём опыте ПРЕДПОЛАГАЕТ, что задача решается в таких условиях. А у ИИ опыта нет, ему эти условия взять неоткуда, если их явно не задали.
Здесь не просто ИИ. LLM это обобщение текстов, которые изначально были написаны людьми.
Проводя лирические аналоги, у них опыт как у прилежного студента, который прочитал все книги на планете. Вопрос на который сейчас пытаются ответить: может-ли чтение в достаточной степени заменить весь остальной опыт, чтобы получить модель человеческого интеллекта?
Интересует насколько качественно та или иная модель усвоила материал. Под качеством усвоения понимается способность давать релевантные ответы не только по прочитанному материалу, но и связывать между собой полученные знания, как это умеют делать люди: абстрагируя, обобщая и т.п.
Логика, способность рассуждать, признавать и исправлять ошибки. Выше был пример с шахматными программами - они тоже развивались постепенно, но давно обошли людей по уровню игры.
Вопрос в верификации ответов. На эту задачу вы знаете правильный ответ, и смогли подсказать модели, на что обратить внимание. Во-первых, не факт, что она вас "поняла", а не просто случайно подобрала следующий по вероятности ответ, и сможет решить такую же задачу с перефразированными условиями. Во-вторых, если вы сами не знаете правильный ответ на задачу, как вы сможете доверять, что модель решила правильно, а не "несёт пургу"?
если вы сами не знаете правильный ответ на задачу, как вы сможете доверять, что модель решила правильно, а не "несёт пургу"?
Так такая же проблема и с людьми. Как знать, что человек правильно ответил, а не "несет пургу"?
Ну человек может хотя бы задаться вопросом верификации. АИ этого не делает.
Не ок, я то задамся
Вопрос то был, как доверять ИИ, если она может "нести пургу", а я сам (например) в этой теме не разбираюсь.
Так вот, а как доверять другому человеку в подобном случае? Он же тоже может "нести пургу", и если я не буду хоть немного в "теме", как я могу понять, что он говорит фигню?
Мне вот недавно электрик рассказывал, что при напряжении в 220В и потребляемой мощности в 2кВТ по проводу будет течь ток в 30А.
а как доверять другому человеку в подобном случае?
Какому именно человеку?
Рандомному абстрактному прохожему с улицы?
Да, в таком случае трудно понять, насколько ему можно доверять.
Когда вы задаете вопрос коллеге/подчиненному, его компетенция должна быть проверена на собеседовании и опытом текущей работы.
Когда вы задаете вопрос члену семьи/другу/знакомому, вы рассчитываете на родственную связь / долгое время совместной жизни / знакомства ("знаем друг друга с детства"), свои знания о его способностях.
Электриков тоже ищут по каким-то критериям, а не берут первого попавшегося - сарафанное радио, отзывы в интернете, сайт с примерами работ.
В чём еще я вижу кардинальное отличие "мясного" специалиста от чудо-ИИ?
Искусственному интеллекту за вредный совет или неправильный ответ абсолютно ничего не будет. Только словесное "атата". "Мясному" же специалисту в случае частого лажания просто будет нечего есть.
а если спросить еще раз, "ты точно уверен, может все таки 4".
Пока получается:
Это общая проблема для LLM. Наверное это связано с несовершенством обучающих данных для тонкой настройки сырой модели. Кроме того, что LLM тренируют выдавать ответ даже тогда, когда LLM не "уверен" в правильности, или даже не знает, какой ответ правильный, LLM также склонны проявлять чрезмерную податливость и неуверенность в своих ответах, даже когда для этого нет объективных оснований. Достаточно лишь намека на сомнение или альтернативную точку зрения, и модель может начать колебаться или менять свою позицию, даже если изначальный ответ был верным.
Из-за этой мелочи даже самые мощные LLM выглядят очень глупыми в таких ситуациях.
Я бы для обучающих примеров добавил больше таких, где LLM отстаивает свою точку зрения, если в ней уверена, но есть обратная сторона такого подхода. Чрезмерная уверенность и настойчивость LLM в своих ответах может привести к проблемам. Модель может начать упорно отстаивать неверные или неполные утверждения, игнорируя важные нюансы или альтернативные точки зрения. Это может затруднить конструктивный диалог и ограничить возможности для уточнения и корректировки информации. Кроме того, излишняя самоуверенность модели может ввести пользователя в заблуждение, особенно если он полагается на LLM как на авторитетный источник информации.
Поэтому важно найти баланс между способностью модели отстаивать обоснованную позицию и её готовностью к пересмотру своих утверждений при наличии веских аргументов или новой информации. Это сложная задача, требующая тонкой настройки обучающих данных и алгоритмов.
а теперь поменяйте Васю на Вову и придумайте новые числа
это не логика, а внушаемость модели, которой можно насадить любую идею, да, может не с первого раза, но всё равно она примет идею.
А знание - это способность разобраться как оно работает, не задавать вопросы нейросети типа: реши логическую задачу, но добавляй немного бредятинки на каждом шаге, чтобы было не скучно. И получать скучные правильные ответы с первого раза
Обратите внимание, ровно такой вопрос вы и задали. И что вы ожидали получить?
Модель gpt4o отвечает правильно, большой Mistral тоже сразу ("У брата Алисы две сестры: сама Алиса и еще одна сестра. Таким образом, у брата Алисы две сестры") 🤷🏻♂️
Gemini в принципе контуженная с самого начала, не знаю никого кто ей пользуется.
Такие исследования устаревают в момент их выхода, гонка в области ИИ сумасшедшая.
Попробуйте поменять формулировку, модели начинают путаться.
Пример:
Peter has 4 brothers the same age, 2 younger brothers, 3 sisters the same age and two older sisters, how many brothers does Peter's brother have?
Мистраль сразу справился, а вот модели OpenAI ошибаются. Об этом я и говорю. Сегодня мы с вами посетуем на то что 1 из 10 моделей даёт правильный ответ при подсчёте братьев, а "завтра" когда братья будут подсчитаны, найдем что-нибудь ещё. Это очень динамичная область. Старые проблемы будут решаться и также быстро появляться новые. Про архитектуры вообще молчу.
If Peter has 4 brothers the same age as him, that means there are 5 boys in total who are the same age (including Peter). Since they are all brothers, each of them would have the same number of brothers.
So, Peter's brother would have:
4 brothers the same age (including Peter)
2 younger brothers
Adding those up, Peter's brother has 4 + 2 = 6 brothers.
Потому что в вопросе 1 сестра. Если указать несколько..например у Алисы 3 сестры. То ответ gpt4o будет неправильный. Только что проверил.
Модель gpt4o отвечает правильно,
Многие правильный ответы gpt4 это не АИ модель, а специально добавленные алгоритмы популярных ошибок, которые работают не на уровне формальной человеческой логики. Если задать от же вопрос немного иначе его сформулировав, можно будет обнаружить, что gpt4 не отвечает правильно, просто разработчики попытались самые частые ошибки замести под ковер (возможно даже огромным листингом if/else ;)
Нет. Разработчики, для того чтобы всех развеселить, по умолчанию выставили высокий уровень "бредятинки" у себя на сайте. И как показывает опыт, попали в самую точку. Если бы они этого не сделали, скорее всего не было бы никакого хайпа вокруг LLM. Ну решает модель логические задачки. Ну и что? Никто бы этим не заинтересовался, кроме небольшого количества специалистов. А они сделали так, что модель стала выдавать нечто неожиданное типа: "у Алисы есть сестра, она сама". И сразу все бросились обсуждать.
Те, кто использует LLM для серьезных целей, знают об этом. Они просто отключают сэмплирование (тот самый, пресловутый "бредогенератор") и получают скучные правильные ответы в 100 случаях из 100. А те, кто не знают, получают на 1 правильный ответ 1 неправильный ответ и бесконечно обсуждают это
нет
Что нет? Сэмплирование нельзя отключить или что?
Все в твоем утверждении в лучшем случае ошибочно
С некоторой натяжкой, за креативность у llm-ок отвечает параметр temperature (на самом деле это самый простой алгоритм, есть другие более сложные но там в конце концов есть ручка которую можно покрутить с той же целью) и его можно выкрутить в 0.
И нет, это не превратит модель в безошибочный суперинтеллект, мало того, различные метрики качества модели повышаются, при увеличении этой 'креативности'
Причина в глупости моделей - в процессе обучения и используемых данных. Напомню что алгоритм получения ИИ из llm-ок получен где то как то случайно, из алгоритма, который из горы не размеченного хлама сумел внутри себя построить какую то модель интеллекта, чем то напоминающую человеческий, и сделано это исключительно методом 'больших денег', просто базовые метрики модели увеличили на пару порядков и получили результат, и теперь уже третий год исследователи пытаются понять, как это оптимизировать и вытянуть эту модель на уровень хотя бы человеческого.
хотя бы человеческого
Так нереально же. Человеческий интеллект сделан методом ещё больших денег.
1) Мало кто из обсуждающих эту тему, вообще знает про эту "ручку"
2) Все, кто знает, выкручивал в 0 и затем отписался в этой теме говорят, что получили верный ответ (можешь сам проверить)
3) Авторы оригинального исследования, которое здесь обсуждается, про эту "ручку" не знали (как это ни удивительно). Они просто не глядя скопировали чей-то код, не разбираясь что там и для чего. Я сужу об этом по тому, что они сами в своей статье говорят. А говорят примерно следующее: мы пытались через промт заставить модель действовать точнее, но у нас ничего не вышло. Ну и код я не поленился посмотреть, там 0.7 вместо 0.
Итого. Причиной "тупости" модели в данном случае является то, что кто-то не выкручивает "ручку" в 0
>Это явный признак того, что модели не способны к надежному базовому рассуждению
Мне кажется, когда модели станут способны к надежному базовому рассуждению, их можно будет с чистой совестью называть ИИ.
(Алсо, если кому не жалко, поставьте пару плюсов в карму профиля, а то счетчик в 5 минут на сообщение дико раздражает. Заранее премного благодарен тем добрым людям, что откликнутся)
Ожидаемый результат, на самом деле.
Языковая модель - это грубо говоря всего лишь набор статистических закономерностей, какое слово за каким следует в тексте. Ожидать от неё что-то интеллектуального - наивно. Просто ожидания сейчас перегреты вводящим в заблуждение маркетингом, который выдаёт эти статистические модели за что-то действительно интеллектуальное.
Задал этот вопрос только с изменением имени:
У Маргарет 7 братьев и 2 сестры. Сколько сестер у брата Маргарет?
Ответ от хваленного чат GPT 4о:
"У брата Маргарет 2 сестры."
Задал его повторно и получил еще более худший и странный ответ:
У каждого брата Маргарет также 2 сестры, включая саму Маргарет. 🤦♂️🤷♂️
В третий раз просто перенаправляю чату его же неверный ответ: У каждого брата Маргарет также 2 сестры, включая саму Маргарет. Получаю ответ:
Да, верно. У каждого из братьев Маргарет две сестры, включая саму Маргарет.
В четвертый раз задаю вопрос: У Маргарет 7 братьев и 2 сестры. Сколько сестер у брата Маргарет?
И наконец получаю верный ответ:
У брата Маргарет 3 сестры. Вопрос был сформулирован немного иначе, чем я изначально поняла. Если у Маргарет 2 сестры, включая её саму, то у её брата 3 сестры: две сестры Маргарет и сама Маргарет.
Причем сам по себе ответ содержит странности, ведь во-первых, вопрос не был сформулирован иначе, это один и тот же вопрос. Более того, форма самого ответа тоже странная: формулировка: "Если у Маргарет 2 сестры, включая её саму" может повторно ввести в заблуждение и мы можем посчитать что модель опять, либо эти две сестры учитывает без Маргарет, либо неверно считает что Маргарет это одна из тех 2 сестер. Но после это сомнение развеивается следующей фразой чата GPT 4o: "то у её брата 3 сестры: две сестры Маргарет и сама Маргарет."
Мне кажется, что ответ должен был бы быть сформулирован иначе: "Если у Маргарет 2 сестры, ТО включая её саму у брата Маргарет 3 сестры, 2 общие сестры для всех и сама Маргарет.
В целом все очень странно, ибо верный ответ на такой легкий вопрос был дан лишь с 4 раза. Я удивлен, я не знал что считающийся умнейшим чат GPT4 Omni делает такие глупые ошибки.
Как верно подметил кто-то из комментариев: Это вы тут, в этом вопросе знаете верный ответ, а что если вы сами не знаете верного ответа? А что если никто не знает верного ответа? Например, как нам полагаться на ответы будущего Чата GPT 5??? Ведь нам рассказывают что он будет умнее большей части людей, и где гарантия что эти модели не будут галлюцинировать уже на таком высоком уровне, что мы люди уже НЕ сможем обнаружить их ошибок.
Откуда вообще взялось ожидание что Языковая лингвистическая модель должна иметь какую-то способность к логике? И проблема и исследование звучат как какой-то абсурд.
Про это есть фантастический рассказ Игра в бисер, автор которого в своё время получил Нобелевскую премию.
А разве не это ожидание нам усиленно пытаются продать?
— Предположим, что у вас в кармане два яблока. Некто взял у вас одно яблоко. Сколько у вас осталось яблок?
— Два.
— Подумайте хорошенько.
Буратино сморщился, — так здорово подумал.
— Два…
— Почему?
— Я же не отдам некту яблоко, хоть он дерись!
Может ли нейросеть сформировать какое-то подобие языка Пролог внутри себя? Или какое-то его подмножество? Или, может, нужно его как-то пристроить к нейросети, для проверки её логических выводов?
Claude 3.5 Sonnet стабильно верно отвечает из того что пробовал. Сравнивал модели на lmsys arena, poe.com
так DeepMind уже решала подобные задачи, но там не языковая модель, а Дифференциальный нейронный компьютер
https://lenta.ru/news/2016/10/12/tube/
https://habr.com/ru/articles/398357/
В ходе эксперимента DNC подсказал ученым самый краткий путь от одной станции лондонского метро к другой, а также смог выяснить, как зовут одного из родственников выбранного человека в заданном генеалогическом древе
Вот пример одного из вопросов, на который DNC может ответить правильно сразу же после загрузки в память системы карты метрополитена:"Когда мы заходим в вагон метро и проезжаем одну остановку по Центральной линии, потом по Кольцевой линии еще четыре остановки, и по линии Джубили еще две остановки, на какой остановке мы выйдем?"
"... ваши роботы лишат нас всего. Сегодня робот корректирует гранки, завтра он или другие роботы начнут писать самый текст, искать источники, проверять и перепроверять абзацы, быть может, даже делать заключения и выводы. Что же останется учёному? Только одно - бесплодные размышления на тему, что бы ещё такое приказать роботу!"
Это цитата из рассказа "Раб корректуры" Айзека Азимова, написанного в 1964 году! Шестьдесят лет назад все эти "проблемы" и их бессмысленность были понятны думающим людям... Ошибается ли ИИ при решении логических задач? Да какая НАМ разница?! Главное, чтобы мы сами не начали в них ошибаться! На кой хрен нам нужен искусственный интеллект, пока у нас есть свой? Почему антиутопии должны сбываться?
На кой хрен нам нужен искусственный интеллект, пока у нас есть свой?
Ровно для того же, для чего нужна любая другая автоматизация: избавиться от тяжёлой/опасной/нудной/сложной-в-которой-легко-ошибиться работы.
Именно: от тяжёлой, нудной. Уборка, шахты-карьеры и т.п., чего, кстати, нынешний ИИ не умеет , и чем никто, в принципе, не озабочен. Но не от сложной. Если мы начнём избавляться от сложной работы, мы превратимся в стадо хрюкающих свиней, для которых любая задача сложнее, чем 2+2 будет непосильной, а пасти нас будет ИИ. Ошибки - это не досадная помеха, это процесс познания. Безошибочен инстинкт (пока условия ему соответствуют), ошибки - прерогатива разума... Господи, сколько об этом уже было написано умными людьми ..
Если мы начнём избавляться от сложной работы, мы превратимся в стадо хрюкающих свиней
Непонятно, как, например, передача поиска уязвимостей искусственному интеллекту превратит людей в свиней.
Ошибки - это не досадная помеха, это процесс познания.
Поэтично. Так и скажите людям, которые из-за ошибки потеряли деньги, здоровье или своих близких.
А что вы будете говорить людям, которые из-за решений, принятых ИИ потеряют здоровье, близких или деньги? Там ведь не будет ни виноватого, которому можно предъявить иск, ни объяснения, почему было принято решение. Ну, скажем, в случае, когда ИИ примет решение отбомбиться по какой-нибудь стране, ввиду того, что его оценка её опасности превысит установленный им же порог? Вы просто не понимаете, о чём речь...
В свиней людей превратит не передача поиска уязвимостей (а, кстати, эта задача решаема использованием стандартных технологий? Если да - то у вас будет объяснение, как это было сделано. В случае с ИИ этого не будет и не будет возможности обосновать оценки), а отсутствие необходимости думать, принимать решения и отвечать за эти решения. Homo sapiens sapiens - он ведь "разумный" до тех пор, пока он ещё и "думающий"...
А что вы будете говорить людям, которые из-за решений, принятых ИИ потеряют здоровье, близких или деньги?
ИИ не принимает решений, это делают люди. И я сомневаюсь, что ему дадут принимать решения.
отсутствие необходимости думать, принимать решения и отвечать за эти решения
Такого даже в теории не предвидится.
"И я сомневаюсь..." Сомневайтесь... 🙂
""Такого даже в теории не предвидится" Блажен, кто верует. Я этот процесс наблюдаю уже лет пять на примере коллектива, где работаю 🙂...
Даже интересно стало, и как это реализовано? ГПТ генерирует распоряжения и сам же их подписывает от лица директора? Или напрямую подключён к какому-то API (сервису) и шлёт туда запросы?
Вы, очевидно, просто не поняли о чём речь - ответ был не про ИИ, а про тенденции в современном обществе , в частности, в организации трудовых процессов. "Главное - чтобы ни о чём не надо было думать" - это сейчас девиз, а не просто цитата из Стругацких...
Или напрямую подключён к какому-то API (сервису) и шлёт туда запросы?
Может быть несколько AI агентов, на основе одной и той же модели, или разных - как в этом примере https://cookbook.openai.com/examples/structured_outputs_multi_agent. При наличии подходящего API устроить апокалипсис не составит труда. Впрочем, тогда это можно сделать раньше и без AI.
Ну, скажем, в случае, когда ИИ примет решение отбомбиться по какой-нибудь стране, ввиду того, что его оценка её опасности превысит установленный им же порог?
Есть интересная концепция, что назначением любой информационной системы в итоге является связывание людей с людьми.
Используемые технологии или абстракции, такие как допустим, научные теории или деление людей на классы - это все средства, но не цель. В этом плане ИИ принципиально ни чего не меняет. Он лишь приводит к изменению связей между людьми.
Проблема на данном этапе в том, что возникновение лишних связей, вызывает у людей непреодолимое желание воевать. Особенно если в моменте нет какой-то определённой цели, для того чтобы объединяться. Прямо принцип "high cohesion, low coupling" в деле. Сейчас эти страхи проецируются на ИИ.
Исторически проблема решается замыканием связей внутри общественных систем, таких как общины или там государства - которые поддерживают долговременные условия, препятствующие конфликтам внутри. Общие цели и т.п.
Следуя логике, если не создавать между людьми лишних связей, то вероятность конфликтов резко снижается в принципе. При этом, сами по себе люди скорее полезны. Поэтому альтернативные сценарии апокалипсиса мне кажутся более вероятными.
>На кой хрен нам нужен искусственный интеллект, пока у нас есть свой?
Тут соль в другом, на кой хрен нужны будем мы, если будет Искусственный Интеллект?
Естественный интеллект растить долго, сложно. Он не масштабируется.
А вот Искусственный не имеет таких ограничений, его производство зависит от производства чипов на заводе, а не от долгого процесса размножения. Его мощность не имеет потолка, в то время как человеческий интеллект заперт в маленькой черепушке.
"на кой хрен нужны будем мы" Ну, я стараюсь быть оптимистом...
"Естественный интеллект растить долго, сложно." Вот-вот, поиск лёгких (читай, дешёвых) решений, за которые потом придется дорого заплатить...
Мощность того, что "заперто в черепушке" в тысячу раз превышает мощность лучшего на сегодня суперкомпьютера. А потребляет энергии... ну вы поняли
И при этом эта мощность не развивалась последние пару сотен тысяч лет, в то время как техника постоянно наращивает мощность и энергоэффективность.
Через даже не тысяча, а сотню лет - любой тостер будет умнее человека.
Постепенно ИИ обучится и эти задачи решать
отгадай загадку. На небе одно, у бабы двое, а у деда ни одного.
ChatGPT
Эта загадка про зубы. На небе одно — это Луна, у бабы двое — это зубы, а у деда ни одного — потому что дед старый и у него уже нет зубов.
Любые задачи с символьным представлением слов ИИ будет решать плохо или не решать по той же причине, если бы вы перевели эту задачу на другой язык и попробовали бы дать ее ее носителю.
Внутри у GPT свой язык и если честно нужно удивляться, что иногда она эти задачи все же решает!
ChatGPT 4o сразу даёт ответ про букву, если задать вопрос грамотно: "в небе одна, у бабы две, а у деда ни одной".
В вашем варианте загадки он, видимо, пытается подобрать существительное подходящего числа и рода. Мне ответил "это Глаза: у бабы два глаза, у деда ни одного (если дед слепой), а на небе одно солнце (которое иногда символизируют как глаз небес)". Со второй попытки - "зубы" и "Солнце" (потому что солнце можно ассоциировать с золотым зубом).
В общем, правильно сформулированный вопрос это половина ответа. Я думаю это где-то даже хорошо, что он сейчас не пытается спорить с формулировкой.
А с этим быстрее справляется:
Реши задачу. Человек вошел в комнату, где находилось 5 убийц, и убил одного из них. Сколько живых убийц осталось в комнате?
ChatGPT
После того как человек убил одного из пяти убийц, в комнате осталось 4 живых убийцы.
Неверно.
ChatGPT
Ты прав, я ошибся. В комнате остались 5 живых убийц, потому что человек, убивший одного из них, сам становится убийцей.
Спасибо за внимательность!
Claude-3-5-sonnet-20240620 лучше всего справляется и с частными вариантами и в общем виде. Gemini-1.5-pro-exp-0801 решила в частном виде, с общим начала рассуждать правильно, потому вдруг выдала M вместо M+1.
Статья наверное старая, раз не тестировали на версии 3.5. Надо просто подождать. На следующей неделе вроде как Q* (strawberry) возможно выйдет и там как раз логические рассуждения должны пофиксить. Но возможно и нет, там много хайпа пока по теме.
Но в целом да, языковые модели это скорее просто способ извлечь воспоминание/знание из большой базы данных. Хотя даже они демонстрируют весьма впечатляющие результаты. Но это так называемый первый тип мышления. Человек же для большинства задач использует второй тип, когда надо не выпаливать первый пришедший в голову ответ, а строить цепочки рассуждений, критически оценивать, визуализировать. К этому всему только подбираются. Возможно, будет совсем другая архитектура, возможно, поверх языковых моделей добавят агентов, визуальный блокнот и что-то ещё. Те нейросети, что мы видим сейчас, это самые тупые нейросети из тех, что появятся за последующие 10 лет, например. Вспомните какие видео и фото генерировались 2-3 года назад.
Есть задачи намного более простые, с которыми языковые модели путаются. Классическая - подсчитать сколько букв R в слове "strawberry", но тут больше с токенизацией связано, чем с рассуждениями. Задачи где человек легко визуализирует ситуацию и даёт ответ, тоже пока сложны. Думаю, тут развитие мультимодальных моделей, мыслящих не словами, а эмбеддингами, должно помочь. Сейчас такие деньги и интеллектуальные ресурсы в это вбухиваются, что через пару лет мы поверить не сможем, что такой прыжок совершён.
Статья не старая (июнь), а просто детсадовского уровня. Авторы не разобрались в деталях, как работают языковые модели. Просто скопировали чей-то код. И стали проводить "исследование". Их "результаты" не имеют никакой ценности.
Можете сами открыть их код и убедиться, что он неприменим к данной ситуации
- У Алисы четыре брата и три сестры. Сколько сестер у брата Алисы?
ChatGPT3.5
Если у Алисы четыре брата и три сестры, то у каждого её брата будет три сестры: Алиса и ещё две её сестры.
- Алиса - девочка. У Алисы четыре брата и три сестры. Сколько сестер у брата Алисы?
ChatGPT3.5
Если у Алисы четыре брата и три сестры, то у каждого её брата будет четыре сестры: Алиса и её три сестры.
Еще вариант, попробуйте задать элементарный вопрос про сбалансированный/ несбалансированный мост (Уитстоуна). Вроде бы данных расчетов целая куча в сети. Но ни одна из моделей не ответила правильно. А задача простая:
Задача. Сопротивления плеч мостовой схемы: R2 = 200 Ом;
R3 = 100 Ом; R4 = 300 Ом и Rx = 100 Ом. Чему равно напряжение диагонали моста при холостом ходе, если напряжение питания моста 15 В?
Все из них отвечают по разному. Только приближенные значения.
ChatGPT 4
У брата Алисы будет такое же количество сестер, сколько и у самой Алисы. У Алисы ( M ) сестер и она сама считается сестрой для своих братьев. Таким образом, у брата Алисы будет ( M ) сестер (не считая саму Алису) плюс Алиса, итого ( M + 1 ) сестра.
Они же проверяли ещё по другим критериям, но по их загадке с Алисой лично мне gemini (1.5pro-exp0801) - 7/7 верных ответов. В этой версии я понял, что менее грубо настроены ограничения модели для всяких нежностей и игнорирования тем и т.п. - ещё одно доказательство, что чем больше их, тем хуже положение и развитие самой модели.
Стандартная модель (1.5pro) - даёт ошибки 4/7, с chagpt (4o), - получше 5/7. Но опять же случай на слуйчай
Пример
Более чем каждый второй ответ неправильный
Задумался..
О чем? Ребята попросили ИИ: решай задачки, только на каждом шаге добавляй немножко бреда в рассуждения. Если бы они не просили добавить бреда, правильным был бы каждый первый ответ
Мне сама формулировка этой фразы показалась запутанной. "Более чем каждый второй ответ" - тут можно предположить, что каждый третий например. Но "каждый третий ответ неправильный" это ведь лучше, чем каждый второй. А тут имелось в виду явно не лучше, а хуже. Надеюсь понятно объяснил)
По моему всё просто - ИИ учился у альтернативно умных программистов, которые считают предметы начиная с нуля :-)
Я: У Алисы четыре брата и одна сестра. Сколько сестер у брата Алисы?
ChatGPT: У брата Алисы одна сестра — это Алиса.
Я: неверно, две
ChatGPT: Извините за недоразумение. Давайте разберемся. У Алисы четыре брата и одна сестра. Каждый из её братьев имеет ту же сестру Алису и еще одну сестру, что означает, что у каждого брата Алисы две сестры: Алиса и её сестра.
Я: У Алисы четыре брата и одна сестра. Сколько сестер у брата Алисы?
ChatGPT: У брата Алисы одна сестра — это Алиса. Поскольку у Алисы одна сестра, у её брата тоже одна сестра.
Я: объясни шутку по Елену Головач
ChatGPT: Шутка про Елену Головач звучит так: "У Алисы четыре брата и одна сестра. Сколько сестёр у брата Алисы? — Две. Елена Головач."
Ахиллесова пята ИИ: простая задача, обнажившая слабости всех языковых моделей