Comments 13
ну раз мужик из фэнтези надел очки и взял в руки включенную светодиодную лампу
Зато в какие жуткие фигуры остальные сложили свои пальцы...
Прогресс за год огромный. Если раньше ты брал любую математическую задачу и давал ее гпт, клоду и гемини с ламой они все выдавали разный результат и ты не мог даже сказать кто прав если прав потому что сам не владеешь математикой, а теперь они все спелись простив нас.
Убедительность стала больше, но правильного ответа никто так и не дает...
Убедительность стала больше, но правильного ответа никто так и не дает...
Вот потому я и готовлюсь к тому моменту, когда кому-то убедительно объяснят, что с геополитическим оппонентом нужно покончить вотпрямща.
А с учётом того, что этот ответ будет точно так же неправильным — то эти приготовления сводятся к глажке белой простыни.
Но, разумеется, самый сообразительный среди них - взлохмаченный блондин!
Из-за культи вместо левой руки?
Промпт, будучи задан естественному интеллекту, немедленно вызвал бы встречный вопрос - какой такой этот объём? Эти объёмы было бы ещё осмысленно, но в промпте битый указатель.
Придуманная задача не соответствует промпту - нужно определить число вопросов, а просили что?
Ответ 7 или 8 - это хуже или лучше чем бред остальных моделей? Не могу выбрать…
Ещё раз убеждаюсь что AI в современном исполнении ведёт в хорошо описанный мир - где «а Вы, Штирлиц, останьтесь Гарри, следуйте на вокзал». Маглам с AI будет хорошо… пусть и не всем.
Я предполагал, что задача будет посчитать суммарный объём работы, но предложенная 4о понравилась мне больше...
Видно, что сухие LLM пока недостаточно хорошо умеют:
чётко определить суть требования/задачи и
удерживать на нём фокус
(как и многие мокрые LLM)...
Все что они делают это угадывают следующее слово, делают это достаточно хорошо для видимости размышлений
Могут подсветить что то в большом количестве данных
Но написать хорошую уникальную статью или исследование не могут, все что они знают ограничено обычным текстом, а за ним у людей есть гораздо больше контекста ( опыта )
Больше всего меня удивляет как люди могут думать что угадывание след слова может превратиться в AGI, в текущем виде никак не может
Не просто угадывают следующее слово, а выбирают его в контексте предыдущих, обучившись на гигабайтах текста. Люди строят в голове модели, даже не осознавая этого - пока LLM этого не может (хотя зачатки такого моделирования у некоторых есть - когда, чтобы ответить на вопрос, они сначала пишут код...)
Вы про автоматы Стивена Вольфрама слышали?
То, что человеческое поведение выглядит дико сложным, не означает что там внутри под капотом какие-то запредельно сложные правила.
Отличный текст!
Можем ли мы быть уверены что в мозгу идёт существенно более сложный процесс?
Не на уровне железа, а на уровне "логики под капотом"?
https://habr.com/ru/articles/439410/
Пятничная занимательная логическая задача про программистов, придуманная LLM