Обновить

Комментарии 6

А теперь Карпаты
А теперь Карпаты

А то давно мы его не слышали...

ИИ породил у сотрудников «комплекс бога»: они поверили, что с его помощью смогут делать любую работу. Маркетологи пишут код, программисты — тексты. Все это такого низкого уровня, что люди выгорают, бесконечно переделывая плохую работу друг за другом

© РБК

Да, с Gemini какая-то фигня происходит на сайте https://gemini.google.com/, он реально на ровном месте галлюцинирует, хотя наполняю контекстное окно на 30-40к где-то (модель 3.1 Pro, у меня платка). А вот на https://aistudio.google.com/ всё пока сносно.

А еще на сайте дико экономит выходные токены. Даю задание, требующее объемного вывода данных (5-6 страниц текста), он выводит максимум 1.5-2, сильно снижая этим качество ответа, хоть я на него наезжаю, показываю работу других моделей, мол, смотри, как надо, и т.п. "Да, да - говорит - ща все исправим" и опять только краткий текст. В AI_Studio заметно получше, но все равно максимально лаконично старается отвечать.

Да по-моему такая беда с "лаконичностью" у всех Gemini 3. В AI Studio можно настраивать максимальный размер выхода. Он как бы здоровый, но модель как будто пытается уложиться в 10% от него, и если увеличить этот допустимый выход, модель становится, как мне кажется, поразговорчивее. Но я не специалист, не разбираюсь, так что прошу меня поправить, если не прав.

Я использую Gemini 3 Flash по API для перевода больших лонгридов с англ на русский. Очень хорошо получается. Выдает куски по 30к символов / 3650 слов / 8200 токенов.

В промпте прописал:

Параметр Output Length в AI Studio не заставляет модель писать длинно, он только говорит: “длиннее этого нельзя”. На практике он помогает гарантировать краткость ответа для задач классификации, суммаризации или контроля затрат, latency.

Лучше работать именно с промптом. Для Gemini 3 Google рекомендует температуру 1.0.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости