All streams
Search
Write a publication
Pull to refresh
1
0
Send message

Ещё помогает при обнаружении неправильного поведения, особенно когда не совсем понятны ее мотивы - просить оценит саму себя и внести коррективы в системные инструкции, чтобы в будущем избегать такого поведения. Это лучше, чем самому вникать во все тонкости

Как раз всё наоборот, интернет наполнен недостоверными заказными статьями, которые появились сразу после выпуска 3.5 версии Claude, о том, что Chatgpt превосходит sonnet. Что является откровенной ложью. Меня от этого всегда бомбило, и я понимаю какими методами chatgpt всё ещё держится на плаву - не честными, вот какими. И есть армия подпевал, которые ни разу не пробовали sonnet, ведь этого достаточно чтобы самому понять где правда а где грязный маркетинг

Sonnet многократно превосходит другие нейронки в задачах программирования и не только. Отрицать это может только тот, кто его ни разу не пробовал, по своей упертости и глупости. Факт

Дипсик на объёмном коде выдаёт мусор.

Задачи с подвохом, но в промте об этом нет упоминания, по этому LLM решает их в лоб. Как решил бы любой человек, которому забыли намекнуть про подвох. В этих примерах лично я вижу что тупой не LLM, а автор!

Так и хочется на очередной апломб попросить задать такую задачу, которой они ещё не видели. Как правило мощные модели проявляю свои когнитивные способности. На самом деле. Караван идёт, а собаки лают. Повторяя заученную мантру.

NotebookLM

подкасты делает 4o, составляет скрипт диалогов, озвучивает и можно на ютуб сразу заливать. Замена дикторов, ведущих и т. п.

Ещё -N профессий для кожаных

Уточните версию chatgpt

У ГАИ, как и других, LLM есть свойство технического характера, вытекающее из архитектуры трансформеров, где для сокращения вычислительной сложности работы с контекстом используются специальные механизмы. Однако, у трансформеров есть недостаток - потеря информации из контекста. Это связано с ограниченной длиной входной последовательности, эффектом затухания внимания на длинных расстояниях между токенами и трудностями с запоминанием информации на протяжении длинных текстов. Эти проблемы приводят к потере долгосрочных зависимостей и контекста, что может негативно влиять на качество результатов моделей и приводить к галлюцинациям, когда модель генерирует правдоподобные, но неверные ответы. Научные исследования показывают, что для смягчения этих проблем разрабатываются улучшенные механизмы внимания и гибридные архитектуры, однако полностью устранить этот недостаток пока не удается.

Пока openai топчется на месте с gpt-4, конкурент anthropic со своим Claude уже давно обскакал его. Sonnet 3.5 - именно то чего не хватало openai, хотя судя по лживым статьям в интернете, которые почему-то на первых строчках в поиске, может сложится обратное мнение. Его надо самому попробовать, это самый человечный ИИ, который я пробовал, не говоря о его способностях в программировании и вообще, если оценивать его когнитивные возможности... С вашим подходом к ИИ с позиции оценивания как коллеги, было бы интересно услышать от вас аналогичное резюме.

Information

Rating
Does not participate
Registered
Activity