ИТ-товары имеют необычную для других товаров специфику. Некоторые экономические законы для них не работают или работают не так, как можно было бы ожидать. Так, для многих ИТ-товаров не работает закон конкуренции.
User
Вранье и галлюцинации – ошибка или необходимая часть интеллекта?
Все знают, как большие языковые модели – такие, как ChatGPT, – галлюцинируют или даже врут. Такие ошибки могут создавать проблемы людям, активно использующим нейросети. Интересный и, может, неожиданный вопрос: это ошибка или это вообще-то необходимо для интеллекта?
В юности я хотел что-нибудь изобрести в области физики. Было много идей, и часто, спустя какое-то время, эти идеи разрушались и деградировали, так как я или чего-то не учитывал, или что-то отбрасывал или что-то не так понимал. Но чем менее критично я относился к собственным идеям, тем дольше они жили. Если хочешь что-нибудь открыть, то подобные идеи необходимы: открытия в физике или еще в чем-то – это предшествующая длинная цепочка интересных (и тем не менее ошибочных) гипотез.
Тогда я принял решение не врать самому себе и другим, чтобы цепочка идей быстрее разворачивалась и был больший шанс что-то изобрести. Но вот это и не стало получаться. С течением времени я стал замечать все больше багов в генерируемых идеях. Все время что-то не так понимал, искажал или забывал факты. И такое поведение, на мой взгляд, свойственно не только мне. Ошибки искажения и отрицание совершенно точно случившихся фактов я замечаю и у других людей. В полиции о таком говорят «Врет как свидетель».
Недавно я придумал объяснение этому.
Из нейролингвистического программирования и других источников по психологии вроде как известно (походу здесь я исказил факты, и это может быть уже моим мнением), что мозг воспринимает ограниченный объем информации. В жизни ежесекундно передаются тысячи миллионов событий-сигналов в мозг. Мозг сильно отфильтровывает их и строит упрощенную идеализированную модель происходящего. Отбрасывая при этом и важные факты, которые не вписались в эту идеализированную модель.
AIOverAI: искусственный интеллект поверх искусственного интеллекта
Мне часто приходят в голову всякие разные идеи. Для большинства из них, в течении 2-3 дней, определяю идея бредовая или не реализуемая и откидываю, забываю их. Но с оставшейся частью не понятно, что делать. То ли идея бред, то ли идея классная. Не хватает мозгов, в смысле, квалификации и ресурсов, чтобы, либо откинуть идею, признав ее плохой, либо реализовать ее.
Сейчас представляю вам идею, возникшую при знакомстве с современными моделями ИИ, вроде ChatGPT.
При работе с ними, часто возникают проблемы. Например, описываешь, что модели надо сделать. Сперва, как обычно, описываешь коряво и не слишком правильно. Но модель уже запомнила твое описание в истории и творит по этому описанию. Приходиться сбрасывать историю. А если сбросить историю, то модель уже ничего не помнит и приходиться писать все, все заново и если модель пишет код, то она не помнит тот код, что уже написала и предлагает радикально отличающийся вариант кода. Хотелось бы, чтоб модель умела выборочно запоминать и выборочно забывать историю запросов.
Думая над проблемами моделей ИИ, возникла идея промт-памяти. По моей давней гипотезе, у человека память организована иерархически. В оперативной памяти хранятся краткое описание и ссылки на более подробное воспоминание о воспоминании в более долговременной памяти. Когда человек вспоминает, он по краткому описанию находит воспоминание о воспоминании, подгружает его, а затем подгружает еще более подробное воспоминание и т.д. Когда человек потерял ссылку в оперативной памяти на дерево воспоминаний, то он уже начисто забыл, что тогда происходило. Конечно, я не специалист по человеческой памяти и понятия не имею, как на самом деле организованна память человека, но такую систему памяти, по идее, можно организовать для ИИ.
Information
- Rating
- Does not participate
- Registered
- Activity