Comments 12
В области DBA примеров когда нейросеть дает ложные рекомендации - великое множество .
Причина очень проста - в интернете очень мало результатов экспериментов в области СУБД. А без экспериментального подтверждения - семантический анализ документации мало что полезного может дать.
Впрочем основная масса рекомендаций живых экспертов DBA не сильно отличается от нейросетей - теоретическое обоснование это как правило цитаты из документации и интернет страниц с непонятно откуда взявшимися цифрами, ну а получить данные экспериментов вообще утопия.
Это да. Прикольно выдумывают несуществующие системные таблицы и колонки
Да, нет , всё сильно проще. Например спрашивать у нейросети как влияют агрессивные настройки автовакуума на производительность СУБД PostgreSQL не имеет смысла. У нейросети нет экспериментальных данных, а без реальных данных любой ответ просто наугад . А ответ совсем не очевиден и сильно зависит от массы входных условий и все равно нуждается в экспериментальной проверке.
Впрочем , повторю, живые DBA в данном контексте не сильно отличаются от нейросети - те же камлания и алхимические рецепты, вместо научного подхода и анализа экспериментальных данных.
Есть такое с СУБД. В Delphi в примере подключения АТTACH DATABASE в SQLite с использованием Firedac deepseek предлагает использовать exec все место правильного execsql. Исправляет только после указания на ошибку. С insert и on conflict без where то же самое, зацикливается и не указывает на ошибку в SQLite , где обязательно должен быть в запросе where. Нужно добавлять where true. Глаз да глаз нужен за этим deepseek. Хотя в stackoverflow эта проблема описана давно.
Добротная статья, спасибо. Очень радует трезвость рассуждений и выводов, а то надоели уже эти оголтелые авторы, для которых LLM это манна небесная и скоро человек будет не нужен (ну и да, они все упорно называют LLM "искусственным интеллектом", это первый признак оголтелости автора).
Задал ваш вопрос ChatGPT, только перевёл вопрос на английский. ChatGPT после размышлений решил задачу брутфорсом, используя Python (видимо, он умеет выполнять Python-код). Решил правильно, результат вышел 38
Далее включил режим Deep Research, он изучил интернет на предмет венгерского алгоритма, размышлял около 3 минут, и также дал ответ 38. Как он пришёл к ответу, я не стал спрашивать )
В целом согласен с посылом статьи, мне как-то понадобилось реализовать сложный фильтр Калмана с некоторыми доп.условиями, ни одна нейросеть не смогла дать хорошего результата, часто вообще давали нерабочий или некорректно работающий код
Предпочитаю проверять не только нейросети, но и статьи.
Дипсик с первого раза дал ответ 38, статья не права.
Никаких уточнений к постановке я не давал.
Нейросети ошибаются и даже врут, согласен. Но тут ответ верный, 38.
Дипсик с первого раза дал ответ 38
Вариант номер раз. Нейросети учатся, и теперь она уже знает правильный ответ
Вариант номер два. Кубики в rand() упали как то иначе. Вам повезло, автору - нет.
LLM не учатся мгновенно. Насколько актуальны знания той или иной нейросети, можно узнать вопросом про knowledge cutoff
но ведь речь идет не совсем про мгновенное обучение, никто ведь не отменяет возможности написания данной статьи месяцами ранее, а отложенная публикация была намечена на сейчас. Но самый главный вывод здесь, так это то, что "хочешь сделать хорошо, сделай это сам", но в нашем случае мы уже можем сами не делать, но проверить - обязаны
Вариант номер три. Автор попал на дипсек версии 2, а вы на версию 3.2. Я не первый раз замечаю, что ответы идут от устаревшей версии. Дипсеком теперь пользоваться вообще опасно.
В общем-то не секрет, что LLM лучше пишет код, который манипулирует таблицами, чем собственно манипулирует таблицами.
Не верьте AI на слово: практический эксперимент с задачей оптимизации