Pull to refresh

Comments 13

ну раз мужик из фэнтези надел очки и взял в руки включенную светодиодную лампу

Зато в какие жуткие фигуры остальные сложили свои пальцы...

Прогресс за год огромный. Если раньше ты брал любую математическую задачу и давал ее гпт, клоду и гемини с ламой они все выдавали разный результат и ты не мог даже сказать кто прав если прав потому что сам не владеешь математикой, а теперь они все спелись простив нас.

Убедительность стала больше, но правильного ответа никто так и не дает...

Убедительность стала больше, но правильного ответа никто так и не дает...

Вот потому я и готовлюсь к тому моменту, когда кому-то убедительно объяснят, что с геополитическим оппонентом нужно покончить вотпрямща.

А с учётом того, что этот ответ будет точно так же неправильным — то эти приготовления сводятся к глажке белой простыни.

Но, разумеется, самый сообразительный среди них - взлохмаченный блондин!

Из-за культи вместо левой руки?

Промпт, будучи задан естественному интеллекту, немедленно вызвал бы встречный вопрос - какой такой этот объём? Эти объёмы было бы ещё осмысленно, но в промпте битый указатель.

Придуманная задача не соответствует промпту - нужно определить число вопросов, а просили что?

Ответ 7 или 8 - это хуже или лучше чем бред остальных моделей? Не могу выбрать…

Ещё раз убеждаюсь что AI в современном исполнении ведёт в хорошо описанный мир - где «а Вы, Штирлиц, останьтесь Гарри, следуйте на вокзал». Маглам с AI будет хорошо… пусть и не всем.

Я предполагал, что задача будет посчитать суммарный объём работы, но предложенная 4о понравилась мне больше...

Видно, что сухие LLM пока недостаточно хорошо умеют:

  • чётко определить суть требования/задачи и

  • удерживать на нём фокус

    (как и многие мокрые LLM)...

Все что они делают это угадывают следующее слово, делают это достаточно хорошо для видимости размышлений

Могут подсветить что то в большом количестве данных

Но написать хорошую уникальную статью или исследование не могут, все что они знают ограничено обычным текстом, а за ним у людей есть гораздо больше контекста ( опыта )

Больше всего меня удивляет как люди могут думать что угадывание след слова может превратиться в AGI, в текущем виде никак не может

Не просто угадывают следующее слово, а выбирают его в контексте предыдущих, обучившись на гигабайтах текста. Люди строят в голове модели, даже не осознавая этого - пока LLM этого не может (хотя зачатки такого моделирования у некоторых есть - когда, чтобы ответить на вопрос, они сначала пишут код...)

Оба вы правы. Обучение идёт как "а что 100500 бабизян люди чаще всего пишут, если непосредственно перед этим они написали то-то и то-то".

Вы про автоматы Стивена Вольфрама слышали?
То, что человеческое поведение выглядит дико сложным, не означает что там внутри под капотом какие-то запредельно сложные правила.

Отличный текст!
Можем ли мы быть уверены что в мозгу идёт существенно более сложный процесс?
Не на уровне железа, а на уровне "логики под капотом"?
https://habr.com/ru/articles/439410/

Sign up to leave a comment.

Articles