Pull to refresh
11
0

Front-end Engineer at Yandex

Send message

Эйфория пройдет, это просто станет стандартным навыком разработчика ПО.

Вызовы несуществующих API довольно типичная галлюцинация LLM.

Типичная для какого года? Начиная с фронтирных моделей уровня Claude Opus 4.5, в моем обширном опыте AI-assisted разработки уже не происходит таких примитивных галлюцинаций LLM. Агент способен либо сразу писать правильно, либо на шаге валидации своего кода находить вызовы несуществующих API и исправлять их.

Но модель этого сделать не может. Не потому что она плохая, а потому что она не присутствует в физическом мире. Она не может кожей понять в чем разница между холодом и жаром и при чем здесь теплые варежки. Значит, ее мостики фундаментально ограничены.

Это известное ограничение LLM. Многие топовые учёные признали, что возможностей LLM недостаточно для создания AGI независимо от ее масштабов, и ушли в разработку "моделей мира", которые якобы имеют потенциал закрыть пробел "невоплощенности в физическом мире".

Но для написания кода особое понимание физических аспектов не требуется. Если инструмент работает для одного класса задач, странно считать его "слабым" потому что он не умеет решать задачи другого класса.

В том-то и дело - мы не знаем как работают эти "вспышки". Нет оснований считать это исключительной способностью человека. Так же нет доказательств, что такие вспышки это какая-то особая форма инсайта, порождающая результат, который не мог бы быть синтезирован тем или иным способом из знаний и гипотез, которые уже есть у человека.

Да, LLM - это не человек, разумеется. Но относиться к ним как к примитивному статистическому предиктору, выглядит как недооценивание возможностей LLM.

Исторически это неверно. Комплексные числа появились не «из воздуха», а как инструмент решения конкретной технической проблемы — кубических уравнений в XVI веке (Кардано). Формально выражаясь, они возникли как расширение числовой системы, чтобы замкнуть операции извлечения корня. Это типичный математический ход: если операция не замкнута, расширяем структуру. Теория групп — тоже не спонтанная вспышка сознания. Она выросла из исследования симметрий и из попыток понять структуру решений алгебраических уравнений (Галуа). Это была абстракция наблюдаемого паттерна: операции, обладающие определёнными свойствами (замкнутость, ассоциативность, нейтральный элемент, обратимость).

То есть оба примера — это компрессия и обобщение повторяющихся структур. Именно это делают нейросети на уровне статистики.

Если понимать нейросеть как чисто языковую модель, обученную предсказывать следующий токен, то она действительно не обладает автономной постановкой новых математических проблем. У неё нет собственной мотивации или цели.

Но принципиальная неспособность — слишком сильное утверждение.

Во-первых, LLM уже демонстрируют способность к композиционной генерализации: они комбинируют абстракции, которые вместе в обучающих данных могли не встречаться. Это не просто перестановка фрагментов.

Во-вторых, в математике новизна часто выглядит как:

  1. Обнаружение структурного сходства.

  2. Введение формального определения.

  3. Доказательство свойств.

Нейросети уже способны формулировать определения и предлагать обобщения. Да, они делают это внутри распределения обучающих данных. Но и человек работает внутри своего когнитивного распределения опыта.

Философски аргумент строится на идее «человек может выйти за пределы опыта, а модель — нет». Но человек тоже не выходит за пределы опыта радикально. Он интерполирует и иногда экстраполирует на основе накопленных паттернов. Разница — в механизме и степени контроля, а не в магической категории «принципиально».

Есть ещё важный момент: современные системы — это не только LLM. Есть символьные ИИ, автоматические доказчики теорем, системы поиска гипотез. В гибридной архитектуре нейросеть может предлагать гипотезы, а формальная система — проверять их. Уже есть примеры генерации новых математических утверждений с последующей верификацией.

Если использовать аналогию: человек — это исследователь, который ходит по ландшафту идей и иногда строит новый мост между холмами. Нейросеть — это карта рельефа, построенная по огромному количеству маршрутов. Карта сама по себе не ходит. Но она может показать путь, который человек раньше не замечал.

Сильная версия аргумента звучала бы так: «нейросети не обладают внутренней целью и не ставят собственные проблемы». Это корректнее. Введение комплексных чисел было не просто статистическим шагом, а ответом на интеллектуальный вызов.

Но утверждение о принципиальной невозможности — недоказуемо. Оно скорее метафизическое, чем научное.

И здесь есть тонкий момент. Исторически многие говорили: "машины не смогут играть в шахматы на уровне гроссмейстера, – не смогут писать стихи, – не смогут переводить тексты." Каждый раз «принципиально» оказывалось «инженерно сложно».

Поэтому корректная формулировка была бы такой: современные нейросети не обладают автономной научной инициативой и гарантированной способностью к фундаментальным прорывам. Но утверждать, что статистические модели в принципе не способны к созданию новых абстракций, — слишком сильный тезис.

Не знаю, что за учёные и какие у них аргументы. В научном сообществе LLM относится к системам ИИ. Да, к типу "узкий/слабый", но относится

Аналогия с часами «не знающими времени» — красивая, но логически слабая. Ни один вычислительный механизм не «знает», что он делает, в субъективном смысле. Вопрос в функциональной способности решать задачи, а не в наличии феноменального опыта.

Есть важный момент: LLM способны к композиционной генерализации. Они комбинируют концепты, которые вместе в обучающих данных могли не встречаться. Это не «копирование». Это интерполяция и иногда экстраполяция в пространстве признаков. В инженерных задачах это часто выглядит как новое решение. В научных открытиях — пока редко, но уже есть примеры помощи в генерации гипотез.

«ИИ неспособен создать ничего принципиально нового» - спорный тезис. С точки зрения строгой математики любая модель действительно генерирует комбинации на основе обученного распределения. Но человеческий интеллект делает то же самое. Новизна у человека тоже статистически обусловлена опытом и ассоциациями. Разница в степени обобщения и способности к абстракции, а не в наличии «магической искры».

Никто не говорит в профессиональной среде "БЯМ"

А не пробовали использовать агентов типа Manus, поддерживающих полный цикл разработки и публикации мобильного приложения в своем веб-интерфейсе?

Это нейроперевод?

Странно, у меня много раз светился реальный ip, никто не банил за это

Агентная обвязка как раз может обеспечить верификацию кода

По кнопке вернуть? Или заморачиваться общением с саппортом?

Фактически компания платит премию за то, что ты пожертвовал work-life balance

Это неверное утверждение абсолютно. Премию за хороший результат можно получать и без переработок.

Непонятно, что предлагается. Платить премию ежемесячно или что?

LLM как агент и как ассистент - 2 большие разницы. В первом варианте ИИ способен валидировать свои результаты и исправлять ошибки

А у тебя есть подписка Алиса Про? Если нет, то ты не используешь самую умную версию Алисы)

Модель не может "рисовать или писать", она просто чиселки генерит

Для простых задач типа '"напиши функцию" воспроизводимость вывода ИИ будет достаточной с точки зрения корректности. Воспроизводимостью с точностью до именования переменных и переносов строк не нужна. В этом и смысл "компактификации знания".

1
23 ...

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Date of birth
Registered
Activity