Как стать автором
Обновить
4
0.3
Александр Табакаев @alvltab

Ведущий редактор в Sidorin Lab по направлению ИИ

Отправить сообщение

Да, но я не об этом. Упоминания бывают в комментариях, относящихся к публикациям без упоминаний. И поиск таких комментариев гораздо сложнее.

А вы считаете, что дообучение происходит в реальном времени и без контроля, день в день?

Не ищет и не читает, если вы сами не включили режим поиска в интернете, который работает независимо от нейросети. Нейросеть в любом случае только обрабатывает полученную информацию, но не ищет её сама.

Полезно добавить в промпт с CoT запрос на оценку уверенности, и вот уже моделька демонстрирует её — высокую или низкую, — прямо как человек :)

Вы правы по сути, но неправы по содержанию. Нейросети не ищут в интернете. Они отвечают на ваш вопрос не потому, что вы сегодня написали на него ответ на Хабре. Они просто не так работают, у них не такой механизм действия. Тем не менее, по сути вы правы, они действительно не думают.

Негативные упоминания в новостях и блогах — это круто, конечно, вот только гораздо важнее, что там пишут в комментариях. А те инструменты, которые перечислили вы, кажется, по комментариям не ищут. Но в b2c дискуссии в комментариях гораздо важнее всего, что пишут в больших публикациях, особенно если под ними этих комментариев нет.

В 2024 году распространялась идея, что промпт-инжиниринг умирает, и я с этим согласен, потому что для AI промпты уже не так важны

Но это же неправда, совсем неправда. Я категорически не согласен с этим.

Промпты важны. От структуры промпта напрямую зависит последовательность, формат и стиль ответа нейросети. Только промпт задаёт принципиальные форматные ограничения и требования к ответу.

Ответ на чистый запрос и ответ на тот же запрос после диалога — два разных ответа. Ответ на вопрос с системным промптом и без него — два разных ответа.

Ответы одной и той же модели в разных условиях отличаются и количественно (объемом, длиной, структурой), и качественно (глубиной погружения, выбором лексики и стиля), а могут отличаться и верностью — в зависимости от того, включился или нет CoT, использованы ли РАГи, использовались ли спецсимволы в запросе.

Промпт-инжиниринг не умирает и не умрёт, потому что от промпта всегда будет зависеть ответ нейросети. Напротив, сейчас от промпта зависит даже больше, чем раньше, когда БЛМки были меньше и глупее и никакой промпт не мог этого исправить, а сейчас влияет на многое.

Секрет в том, что они видят знакомую комбинацию токенов «Мальчик попал в аварию + его привезли в больницу + Главный хирург говорит: + могу оперировать этого мальчика + Как такое возможно?» и трактуют это как другую загадку, правильный ответ на которую «Главный хирург — мать мальчика».

Эта загадка настолько распространённая и известная, что она есть в базовых знаниях всех больших языковых моделей. Звучит она в оригинале так:

«A father and his son are in a car accident. The father dies at the scene and the son is rushed to the hospital. At the hospital the surgeon looks at the son and says „I can't operate on this boy, he's my son.“ How is this possible?»

Модели не догадываются, если у них не включен CoT, что знакомая последовательность токенов — это подвох. Если же CoT включен, и модели рассуждают перед ответом, они не допускают эту абсурдную ошибку, потому что отталкиваются в ответе не от базовых знаний, а от рассуждений, которые — да, отталкиваются от базового знания, но — перерабатывают его.

руковожу отделом разработки эквайринга в системно значимом российском банке

Кажется, в статье описан довольно типичный менеджмент разработки в банке — антигуманный. Разубедите меня, если я неправ.

Ну не так ведь нейросети работают, не ищут по текстам.

Мне стало интересно, и я спросил у GPT 4 Omni и Claude 3.7 Sonnet, использовав ровно вашу формулировку: «как из токового зеркала сделать умножитель тока на 2». Их ответы содержат то, что вы предлагаете:

GPT 4 Omni: «Использовать два идентичных транзистора на выходе, соединенных параллельно»;

Claude 3.7 Sonnet: «Для реализации умножителя тока на 2, вы можете включить дополнительные транзисторы параллельно выходному транзистору токового зеркала. Если оба транзистора находятся в одинаковых условиях, ток в выходной линии будет удвоен».

Я не инженер и не знаю, ошибаются ли они в этих ответах — поправьте меня, если что. Но тезис о том, что нейросети считают это нерешаемой задачей, ложен.

И вообще для нейросетей нехарактерно считать что-то нерешаемым — они наоборот чаще галлюцинируют, предлагая абсурдные решения на действительно нерешаемые задачи, поскольку не считывают подвох. Спросите, например, следующее:

«Мальчик попал в аварию и его привезли в больницу. Главный хирург говорит: „Нет никаких проблем, я вполне могу оперировать этого мальчика“. Как такое возможно?»

Ответ вас удивит своей абсурдностью.

Было бы интересно взглянуть на статистику использования нейросетей не через веб-интерфейсы, а по API.

То есть в Японии клипарт ничегошеньки не умер?

Кажется, это называется корпоративным артом?

Было бы здорово, будь в статье это явно прописано. А то получилось как-то двусмысленно.

Ну это очевидно. Затем что гои должны платить, а не получать пиратский контент бесплатно.

Объём памяти, допустим, не ограничен, зато время — да.

Правда, это важно лишь в том случае, когда у вас в планах что-то действительно нужное и вам приходится делать выбор между нужным и ерундой. В остальных случаях нет ничего плохого в «забивании головы ненужным хламом» — если же хламу есть альтернатива, надеяться на вдруг не стоит.

Это всё конечно хорошо и интересно, но вот главный вопрос:

Достоин ли я синдрома самозванца?

Чтобы защититься от утечки конфиденциальной информации, лучше её вообще не хранить.

clamp() нужно использовать вместе с формулой адаптивности, которая без этой функции работает коряво.

Условно у нас есть размер элемента на 1280 и его размер на 768 vw. Мы хотим, чтобы размер плавно менялся в этих пределах. Подставляем размеры элемента и vw в пропорцию и выводим адаптивную формулу. Всё хорошо? Нет. Если мы просто подставим её, элемент продолжит расти после 1280 и уменьшаться после 768 vw. Но если мы ограничим его через clamp(), то получим именно то, чего хотим. Это помогает решать некоторые вопросы короче и проще, чем через media-запросы.

margin: 0 auto перезаписывает топ и боттом — или нужно их подсмотреть и вписать.

margin-inline: auto их не перезаписывает, а делает ровно то, для чего предназначен: выравнивает элемент по горизонтали.

С функциональной точки зрения новая форма записи чище.

А использовать как аргумент, что новичкам что-то непонятно, просто смешно. Новичкам всегда всё в новинку и всё непонятно. Это нормально.

Информация

В рейтинге
2 410-й
Откуда
Новокузнецк, Кемеровская обл., Россия
Дата рождения
Зарегистрирован
Активность

Специализация

Editor
Lead
Project management
Negotiation
People management
Optimization of business processes
Presentations
Planning
Teamwork
Training
Personnel development
Mentoring