Обновить
4

Пользователь

0,2
Рейтинг
Отправить сообщение

Ну вот немного подкопим денюшек на железо и попробуем. На самом деле у меня система работала и на М1, проблемы начались, когда стал подключать ллм. Было видно, что система самообучается, т.е. веса меняются. Была сделана "студия", через которую работал чат и шел контроль параметров системы. Была реализована система контроля целостности и возможность отката, если изменения весов приводят к деградации. Определена структура памяти, прописаны протоколы взаимодействия ядер. Но без ллм все это не могло взлететь. А как только модель была добавлена в цикл мышления, железо не выдержало. Код писал гпт 5.4. через Codex. И, на мой непрофессиональный взгляд, делал это очень круто и быстро. Собственно, основное время (почти месяц) заняла проработка архитектуры, сам код и его отладка была сделана за 3 вечера. Естественно, он был не один, там хренова туча ру-файлов, решающих разные задачи. Откровенно сказать, 5.4. thinking сам проработал почти все - я лишь ставил задачи и исправлял их, если они приводили к явным глупостям. Было забавно и увлекательно.

У меня подход был чуточку другой - идея была сделать саморазвивающуюся модель из нескольких ядер, каждое из которых выполняет собственную функцию. А ллм там была в качестве "учителя" языка и способом перевода внутренних мыслей-графов в чат и обратно.

Вообще - интересно. Недавно попытался сделать очень приблизительно то же самое, месяц мучил гпт, чтобы расписать архитектуру. А потом реализовал через Codex 7 млн строк кода :)) При запуске на моем макбуке получил черный экран. Первое мгновение реально мелькнула мысль, что вот он - скайнет :)). Но все оказалось прозаичней, несчастный м1 с 16 гб оперативки просто не потянул проект. Отложил на будущее, когда (и если) будет доступ к новому железу. Если интересно, можем пообщаться. Сразу предупреждаю, что ни разу не программист. И да, это хобби в свободное от работы время. Телеграмм @andreydwin.

Уважаемый, вы бы не могли писать текст на каком-нибудь одном языке? Без обид, но реально тяжело читать.

Возможно это они так к выборам в госдуму готовятся...

В том-то и дело. Лучше это время потратить на собственный текст.

Натыкался на цензуру у ChatGPT в картинках, когда просил генерировать реалистичные изображения детских персонажей в трудных ситуациях: грязных, в оборванной одежде, с оружием и т.д. Споры приводили к генерации картинок, похожих на рисунки маслом или что-то в этом роде. Однажды были сложности с переводом художественного текста на английский с реалистичным описанием перестрелки с трупом. Он долго козлился, но все-таки сделал, когда я пообещал, что пойду в антропик (это была еще одна из 4х моделей). Что касается художественного текста, то лучше пишет, конечно клауд. Но и он еще далек от человека, к сожалению - нет в нем изюминки и точности оттенков. Сделал вывод, что пока моделям можно поручать только отдельные описания, добавления деталей и какие-то короткие задачи на 2-3 абзаца. Кстати, клауд прекрасно пишет эротические сцены (правда писать с ним совсем откровенный контент не пробовал).

Интересно, что почти никто из комментаторов не говорит о том, что образование нужно для общего развития человека. Оно рассматривается только в контексте навыков для работы. Но ведь получение знаний в какой-либо области рано или поздно ведет к несколько другому взгляду на окружающую действительность. Способность человека понимать, как крутятся шестеренки в мире и социуме не возникает с рождения. Университет - это шаг развития, который может быть не нужен в текущей работе, но который поможет в понимании, например, того, какой бред порой несут по телеку. Вряд ли изучение философии поможет в практической деятельности (если вы, конечно, не преподаватель этого предмета), однако знания философских концепций существенно расширяет общее осознание происходящих процессов. Поэтому, на мой взгляд, говорить об избыточности образования - это если не нонсенс, то где-то близко. Что-то из серии - давайте меньше учить людей, тогда будет легче их обманывать.

Странно, у меня в плане Plus давно уже можно было выбирать модель для глубокого исследования. По крайней мере, высвечивалась ChatGPT 5.2 Thinking

Тут, как всегда, дьявол в деталях. Есть, наверное, идеально организованные производства, но я как-то все больше встречал... не совсем организованные, скажем так. И там слесарь Коля решал "творческие" задачи, из чего поставить прокладку на фланец, когда поронит кончился, смена в разгаре, а снабженца нет на месте. И таки решал. А вот как такую задачу решит Оптимус или Атлас... ну вы сами представляете? Я хочу этим сказать, что прежде чем заменять людей на роботов, предстоит ОЧЕНЬ много сделать в организации работы многих (чаще всего небольших)компаний.

GPT-5 неплохо играет в шахматы.

Противоречивые впечатления от GPT 5. С одной стороны выдает более полные и точные ответы на технические вопросы чем в старых версиях. Лучше работает с более длинными художественными текстами. Однако, при возврате к чату через несколько часов, модель умудрилась забыть о чем мы говорили, пришлось долго возвращать в фокус. Также вероятно что-то переключилось - вдруг стал выдавать только часть текста, заменяя остаток кратким описанием в квадратных скобках. Еще стали вылезать глюки при работе с холстом - какие-то баги с интерфейсом. И русский язык хуже, больше ошибок и странных слов.

Информация

В рейтинге
3 431-й
Зарегистрирован
Активность