Комментарии 6

А то давно мы его не слышали...
ИИ породил у сотрудников «комплекс бога»: они поверили, что с его помощью смогут делать любую работу. Маркетологи пишут код, программисты — тексты. Все это такого низкого уровня, что люди выгорают, бесконечно переделывая плохую работу друг за другом
© РБК
Да, с Gemini какая-то фигня происходит на сайте https://gemini.google.com/, он реально на ровном месте галлюцинирует, хотя наполняю контекстное окно на 30-40к где-то (модель 3.1 Pro, у меня платка). А вот на https://aistudio.google.com/ всё пока сносно.
А еще на сайте дико экономит выходные токены. Даю задание, требующее объемного вывода данных (5-6 страниц текста), он выводит максимум 1.5-2, сильно снижая этим качество ответа, хоть я на него наезжаю, показываю работу других моделей, мол, смотри, как надо, и т.п. "Да, да - говорит - ща все исправим" и опять только краткий текст. В AI_Studio заметно получше, но все равно максимально лаконично старается отвечать.
Да по-моему такая беда с "лаконичностью" у всех Gemini 3. В AI Studio можно настраивать максимальный размер выхода. Он как бы здоровый, но модель как будто пытается уложиться в 10% от него, и если увеличить этот допустимый выход, модель становится, как мне кажется, поразговорчивее. Но я не специалист, не разбираюсь, так что прошу меня поправить, если не прав.
Я использую Gemini 3 Flash по API для перевода больших лонгридов с англ на русский. Очень хорошо получается. Выдает куски по 30к символов / 3650 слов / 8200 токенов.
В промпте прописал:

Параметр Output Length в AI Studio не заставляет модель писать длинно, он только говорит: “длиннее этого нельзя”. На практике он помогает гарантировать краткость ответа для задач классификации, суммаризации или контроля затрат, latency.
Лучше работать именно с промптом. Для Gemini 3 Google рекомендует температуру 1.0.


Галлюцинации недели: Gemini 3.1 Pro, Sonnet 4.6 в бою и новый дом llama.cpp