Он имел ввиду что интеллект это адаптация. Мы можем адаптироваться и ногти красить и мутантов убивать, и не только... А ИИ так не может, если у него в базе уже были примеры что так делать плохо, то она так никогда не сделает, за исключением обхода этих надстроек путём смещения активаций, но человек это смещение делает постоянно когда размышляет по новому над проблемой.
ИИ не сможет адаптироваться рисовать картинки звуком, ногой, жопой, через какой то интерфейс, если его не гнать опять на сотни тысяч примеров.
И если мы сделаем такой алгоритм, который сможет адаптироваться к любой фигне, изменяя свои веса, при этом самостоятельно оценивая результат, причём даже если у него есть одна картинка всего-лишь нарисованная человеком, и тысячи книг описания того как рисуют (чтобы он рисовал какое то визуальное представление) то он сможет повторить и сделать даже лучше, то это можно будет назвать интеллектом.
Причем опять же про интелект, пайплайн у людей выстроен не только сознательно но и внутри, для решения нестандартных задач используется меньше энергии.
А что человек с большим количеством знаний? Мы видим это в нейронках, они выдают инфу, крутую, бесспорно, но она бывает не тру, а чтобы она выдала тру инфу ей надо подумать, вспомнить много инфы, итд.
Человек может увидеть яблоко и сказать колесо, приклеить мух на спичку в конкурсе самолётов без электро и бензо движков, вместо долгого проектирования идеального самолетика. Причем он может не знать о таких способах, ему просто лень, он один раз в слушался в правила и сразу нашел дыры.
Согласен, старая схема, проверенная. Раньше так со стимом поступали, у человека А постоянно есть там деньги и он хочет выводить, а нам надо пополнить.
Аналогично с криптой и прочей темой.
Причем будучи разработчиком с хорошей зп не трудно обзавестись такими связями, вот те же бизнесы которые выводят деньги за границу для расчета с компаниями, можно обьедениться в кластер чтобы покрывать их пул.
Ну обучение она же вторая инициализация, модель запоминает информацию, что после слова А чаще идет слово В, при этом используется очень большой набор данных, чтобы модель не переобучилась. А дообучение это уже подгон модели под фому вопрос - ответ, стиль ответа итд.
Можно и сразу обучать модель на конечных данных, но ей будет очень тяжело. Дообучить за одну эпоху в теории возможно.
Если хотите уплыть дальше на нейросетях изучите базовые понятия и логику.
Буквально пару часов каждый день на протяжении месяца.
Научитесь читать код разбирайте с нейронкой строчки кода которые вы не понимаете как работают, когда вы получите эти два навыка ваша продуктивность вырастет, вместо того чтобы сразу копипастить то что выдала нейронка вы сможете сразу понять что она толкает вам дичь, как бы вы хорошо не описывали задачу, все равно что то да забудете, например упомянуть что в проекте у вас библиотека А для задачи Z, а она напишет вам еще кода с библиотекой Б, по итогу проект мусор.
По поводу проектов, изучите архитектуры проектов, изучите принципы ООП.
Так вы в своем коде будете меньше теряться и он будет чище. Оставляйте понятные для себя комментарии, а не те которые пишет вам гпт. Чтобы вы поняли что делали и что там за логика или почему. Потому что при повторном кодинге вы можете ее сломать, а это увеличит сроки вашего проекта.
Из бесплатных я сильно советую гемини 2.5 про через смену ip адреса, эта та нейронка которая будет вашим ревьюером.
Из платных, купите подписку plus на gpt, пользуйтесь всей семьей.
В гпт есть кодекс который очень сильно поможет вам с анализом всего проекта. Этот агент и кодит неплохо, и задачи ставит, эти задачи можно обсуждать с гемини.
Ах да, научитесь пользоваться гитом и заведите гитхаб. Этот скил поможет быстро откатывать идею. Коммиты, ветки.
Так же думающая гпт 5 на обновленном датасете хоть и не такая мощная но системный промт хороший и сам датасет сильно решают.
Ну и база, айти это про то что всегда болит голова от задач и тебе это нравится, нравится с этим сидеть и качать скилы. У тебя нет нерешаемых задач.
Дипсик р1 кстати знает мало, но больше натянут именно решать задачи. Но разница датасетов решает, у меня были такие задачи которые не решала о1, гемини, но дипсик знал. Но зачастую наоборот конечно же.
Аналогично с соннет от клауда, неплохая модель, но мне не зашла. У меня три аккаунта плюс chatgpt все активно юзаю, окупаются, не думающие модели юзают родственники. Прошку брать смысла не вижу, разве что о1 реально модель была по мощнее гемини и новой о3, можно через апи юзать, но дорого.
Ну верстка с помощью ИИ это не Крит момент как по мне. Другое дело когда бэк допускает баланс в минус)
Скорее всего автор коммента не силен
Для тех кто не может скачать впн есть гигачат и Яндекс Алиса, пусть пользуются им этого вполне хватит
Он имел ввиду что интеллект это адаптация. Мы можем адаптироваться и ногти красить и мутантов убивать, и не только... А ИИ так не может, если у него в базе уже были примеры что так делать плохо, то она так никогда не сделает, за исключением обхода этих надстроек путём смещения активаций, но человек это смещение делает постоянно когда размышляет по новому над проблемой.
ИИ не сможет адаптироваться рисовать картинки звуком, ногой, жопой, через какой то интерфейс, если его не гнать опять на сотни тысяч примеров.
И если мы сделаем такой алгоритм, который сможет адаптироваться к любой фигне, изменяя свои веса, при этом самостоятельно оценивая результат, причём даже если у него есть одна картинка всего-лишь нарисованная человеком, и тысячи книг описания того как рисуют (чтобы он рисовал какое то визуальное представление) то он сможет повторить и сделать даже лучше, то это можно будет назвать интеллектом.
Причем опять же про интелект, пайплайн у людей выстроен не только сознательно но и внутри, для решения нестандартных задач используется меньше энергии.
А что человек с большим количеством знаний? Мы видим это в нейронках, они выдают инфу, крутую, бесспорно, но она бывает не тру, а чтобы она выдала тру инфу ей надо подумать, вспомнить много инфы, итд.
Человек может увидеть яблоко и сказать колесо, приклеить мух на спичку в конкурсе самолётов без электро и бензо движков, вместо долгого проектирования идеального самолетика. Причем он может не знать о таких способах, ему просто лень, он один раз в слушался в правила и сразу нашел дыры.
Симбиот
Хахах, что за трансформер)
Согласен, старая схема, проверенная. Раньше так со стимом поступали, у человека А постоянно есть там деньги и он хочет выводить, а нам надо пополнить.
Аналогично с криптой и прочей темой.
Причем будучи разработчиком с хорошей зп не трудно обзавестись такими связями, вот те же бизнесы которые выводят деньги за границу для расчета с компаниями, можно обьедениться в кластер чтобы покрывать их пул.
Вроде нет. Но я не тестил.
Пока квантовые компьютеры жестко не разовьют они так и будут ныть о том что апокалипсис ИИ наступит)
Автору большой респект
О1 была хороша.
С гемини тоже заметил, я юзал его как ревьюера, а теперь он хвалит любой мой код....
Ну обучение она же вторая инициализация, модель запоминает информацию, что после слова А чаще идет слово В, при этом используется очень большой набор данных, чтобы модель не переобучилась. А дообучение это уже подгон модели под фому вопрос - ответ, стиль ответа итд.
Можно и сразу обучать модель на конечных данных, но ей будет очень тяжело. Дообучить за одну эпоху в теории возможно.
Открыл глаза
Пишу код в блокноте и у меня ничего не зависает.
Ждем, а то Сора 1 чет не очень
Солидарен, codex на о3 был намного лучше.
Писал инжектор кода на ассамблере в свое же ПО. Все получилось. Правда я ему давал более детальные задачи, а не вайбкодил. Вайбкодить это анрил
GPT 5 плохо ревьюит, лучше гемини
Если хотите уплыть дальше на нейросетях изучите базовые понятия и логику.
Буквально пару часов каждый день на протяжении месяца.
Научитесь читать код разбирайте с нейронкой строчки кода которые вы не понимаете как работают, когда вы получите эти два навыка ваша продуктивность вырастет, вместо того чтобы сразу копипастить то что выдала нейронка вы сможете сразу понять что она толкает вам дичь, как бы вы хорошо не описывали задачу, все равно что то да забудете, например упомянуть что в проекте у вас библиотека А для задачи Z, а она напишет вам еще кода с библиотекой Б, по итогу проект мусор.
По поводу проектов, изучите архитектуры проектов, изучите принципы ООП.
Так вы в своем коде будете меньше теряться и он будет чище. Оставляйте понятные для себя комментарии, а не те которые пишет вам гпт. Чтобы вы поняли что делали и что там за логика или почему. Потому что при повторном кодинге вы можете ее сломать, а это увеличит сроки вашего проекта.
Из бесплатных я сильно советую гемини 2.5 про через смену ip адреса, эта та нейронка которая будет вашим ревьюером.
Из платных, купите подписку plus на gpt, пользуйтесь всей семьей.
В гпт есть кодекс который очень сильно поможет вам с анализом всего проекта. Этот агент и кодит неплохо, и задачи ставит, эти задачи можно обсуждать с гемини.
Ах да, научитесь пользоваться гитом и заведите гитхаб. Этот скил поможет быстро откатывать идею. Коммиты, ветки.
Так же думающая гпт 5 на обновленном датасете хоть и не такая мощная но системный промт хороший и сам датасет сильно решают.
Ну и база, айти это про то что всегда болит голова от задач и тебе это нравится, нравится с этим сидеть и качать скилы. У тебя нет нерешаемых задач.
Дипсик р1 кстати знает мало, но больше натянут именно решать задачи. Но разница датасетов решает, у меня были такие задачи которые не решала о1, гемини, но дипсик знал. Но зачастую наоборот конечно же.
Аналогично с соннет от клауда, неплохая модель, но мне не зашла. У меня три аккаунта плюс chatgpt все активно юзаю, окупаются, не думающие модели юзают родственники. Прошку брать смысла не вижу, разве что о1 реально модель была по мощнее гемини и новой о3, можно через апи юзать, но дорого.
Мерджить с форсом