Конечно, не могу высказать ничего против экспериментов с искусственным интеллектом. Я просто хочу напомнить, что Мэрилин Гроув делала эти зарисовочки, когда отсылала открытки и оставляла записочки своему возлюбленному и будущему мужу Роберто Казали. (Да, это родители тех самых братьев Казали, которые наделали уровней Plutonia Experiment для Final Doom и потом много работали в геймдеве).
В этом вся суть: это было выражение её эмоций, уникальное послание от себя, а не что-то стандартизированное и размноженное. Эта записки она оставляла у него под подушкой и засовывала в карманы одежды как напоминание о своих чувствах. Нейросеть, увы, может повторить только стиль изображений.
Думаю, должно сработать. Добавьте там в конце --cookies-from-browser Firefox (или какой у вас браузер) при необходимости. Также возможно убрать ненужности (--sponsorblock-remove "music_offtopic,sponsor,selfpromo,interaction,intro,outro,preview,filler").
Файловый размер по определению будет меньше, чем у MP3 эквивалентного качества, поскольку Opus 128 Кбит/с — это примерно как MP3 192 Кбит/с, если не 256.
Зачем вы перегоняете в MP3, если Opus (в котором обычно лежат аудиодорожки на YouTube) сегодня поддерживается любым медиапроигрывателем? И битрейт там вполне хороший: для Opus 128 Кбит/с — это порог прозрачности. Лично я всю мобильную аудиобиблиотеку перегнал из лосслесса в Opus.
Ну и зря — языковые модели всегда выражаются однотипно, текст у них построен похоже. В итоге весь Интернет забит текстами одинакового стиля и темпа, у них очень похоже используются знаки препинания и членятся предложения в абзацах, а текст — на абзацы.
Как будто сразу все в мире прочитали «50 приёмов письма» Роя Питера Кларка и решили, что в перечислениях всегда нужно иметь не больше трёх членов. Ну и этот дешёвый приём для создания темпа повествования и выставления интонации, когда длинные предложения из 2–3 основ перемежаются предложениями из одного-двух слов.
При этом это усреднение всех человеческих знаний никогда не звучит естественно, оно идеализированно несовершенно. Примеры:
Две недели утренних briefing'ов о качестве сна
«Брифинг» вполне себе слово в русском языке.
Окей, слон в комнате.
А вот подстрочник elephant in the room просто не работает.
Под капотом
Если языковая модель описывает техническое устройство чего угодно, то всегда появляется «капот», под которым что-то находится.
И — да — две недели граблей
восторженных тредов и — что особенно забавно — фотографий коробок
и — главное — какие use cases реально работают
Бросается в глаза этот приём.
это как найти крутой инди-альбом за полгода до того, как он попадёт во все плейлисты
алюминиевый кирпичик на столе, который 24/7 работает вашим персональным Джарвисом
Если Claude Code на вашем Mac — это молоток, который вы берёте в руки, когда нужно, то Moltbot — это молоток с ногами и руками
Покупать Mac Mini для Moltbot — это как покупать Ferrari, чтобы ездить за хлебом.
Это как завести щенка: милый, умный, но первый месяц будет грызть тапки и писать на ковёр.
Предполагаю, что большие языковые модели выравнивали так, что они обожают лепить сравнения везде, в том числе не к месту. Видимо, считается, что так будет красивше.
Кстати, про Джарвиса в тексте очень много.
Это уже не тупой будильник. Это accountability partner
Это не приложение, которое вы запускаете — это сервис, который работает постоянно
Изоляция — это не паранойя, это гигиена
И это не гипотеза — люди уже это делают.
получаете реального помощника, а не игрушку
А ещё в речи БЯМ есть такой приём, как «это не X, это Y». Они его пихают в избытке. Приём настолько частый, что уже реальные люди так начали выражаться непропорционально часто, мне это чуточку осточертело.
Ну вот честно, так люди не пишут:
€5 в месяц. Вечер на установку. Две недели на притирку. И у вас есть свой Джарвис.
У меня подобное всегда создаёт отторжение.
ИИ выгоднее использовать для помощи при письме, задавать ему вопросы, требовать искать по источникам и составлять отчёты. Но в конечном тексте всегда должен остаться аромат человека, а не этот леденящий холод машины и отпечаток глупостей из датасетов предобучения.
А запятые могут расставлять сервисы по типу https://orfogrammka.ru/ Никакие БЯМ для проверки орфографии не нужны.
Четыре круглые пометки с латинскими сокращениями и римскими цифрами на полях страницы ставили ученых в тупик на протяжении веков
Каких учёных? Имена, учёные степени?
В оригинале тоже расплывчато: «several experts who reviewed the page were unable to discern their meaning and thus their purpose had remained elusive». Что за «несколько экспертов»? О чём вообще речь?
Почему это потом раздуто в факт, будто вся современная историческая наука не может найти объяснения? Не названы никакие имена, просто сказано, что кто-то неизвестный не смог найти объяснений. А у вас написано: «ставили ученых в тупик на протяжении веков».
Gemini […] разгадал
В оригинале это подано как «highly plausible explanation», то есть это правдоподобная гипотеза, а не разгадка. Тут ИИ предложил интерпретацию, а не тайна разгадана. Нужна проверка специалистом (историком, латинистом), а не этот самоуверенный заголовок.
с первой попытки
Звучит как маркетинговая драматизация. В самом посте GDELT видно, что модель переосмысливает чтение цифр и дат, исправляет сама себя и пересобирает объяснение. Можно спорить, считать ли это одной попыткой, но в читательском восприятии «с первой попытки» значит «сразу точно и безошибочно». А этого там нет.
Вообще, пост GDELT — почти полностью просто копирование выдачи Gemini. Тут речь не про опубликованную научную статью, а буквально пост в каком-то блоге, где кто-то скопировал ответ от языковой модели.
Gemini […] провёл палеографический анализ почерка […] по использованию чернил […] датировал 1500–1550
Вот это уже просто опасная подмена понятий. В оригинале автор сам в промпте задаёт широкий контекст по датам (условно «между концом XV и XVII вв.»), а ответ модели — общий (обычно указывается «16th or 17th century», про 1500–1550 указывается всего в одном случае) и часто без реальной методики. «Палеографический анализ по чернилам» — это то, что в норме требует источниковедения, сравнительных образцов и ответственности эксперта. Тут этого нет, это лишь уверенно звучащий текст от БЯМ.
всего за 2 рубля
Цена запроса по тарифу — не то же самое, что себестоимость разгадки и тем более не гарантия воспроизводимости. В реальности стоимость и точность зависят от настроек, качества изображения, количества прогонов и того, как именно задавали промпты. Вывод уровня «можно масштабировать на архивы и сделать это дёшево» — логический скачок.
огромные архивы исторических документов, веками ждавших исследователей, теперь можно обрабатывать автоматически
Это самый слабый вывод. Даже если конкретно здесь гипотеза правдоподобна, это не демонстрирует главного: валидации на массиве текстов, оценки ошибок, ложных срабатываний, устойчивости к качеству сканов, разным почеркам, языкам, сокращениям и так далее.
Больше похоже на рекламный слоган, чем на вывод из эксперимента.
GDELT
Наконец, важно проговорить возможный конфликт интересов.
Организация GDELT сама пишет у себя на сайте: Supported by Google Jigsaw, а автор поста публично позиционирует себя как Google Developer Expert и до этого много писал про пользу ИИ от Google. Это не означает, что всё проплачено. Ну или подтверждений у меня нет. Но это в первую очередь нужно рассматривать как демку возможностей Gemini из близкого к экосистеме Google источника, а не как независимую валидацию результата историками.
В этой позиции Google выступает в роли догоняющей. У OpenAI есть схожий проект OpenAI for Science. Недавно по микроблогам бегал какой-то физик, утверждавший, что ChatGPT 5 Pro ему решил какие-то вычисления за полчаса, хотя это занимало дни, помните его? Он член OpenAI for Science, и его заинтересованность в таких выводах очевидна.
Думаю, Google тоже активно пытается продвигать собственные ИИ-решения как важный инструмент для учёных. Ситуация похожая: связанный с некоей компанией учёный публикует что-то, где нахваливает качество работы продукта компании. Данный пример лично я склонен считать эффективными пиар-усилиями, а не реальным прорывом.
Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.
Зачем вас поддерживать, если вы двух фактов вместе сложить не можете, а просто транслируете чужую повестку? Вы же вроде новости читаете, и можете сделать понятный вывод. Где ваша «творческая сторона»?
Кармен встречается с Рико в школе, но после поступления на пилота бросает Джонни по видеозвонку и дальше встречается со своим наставником.
К Рико проявляет огромный интерес Флорес: она буквально переводится туда же, где служит он. Поскольку с Кармен у Джонни не наладилось, он переключается на Диззи.
В конечном итоге:
Диззи погибает в бою.
Зандеру высасывают мозги.
В конце фильма Джонни и Кармен воссоединяются. Казалось бы, хэппи энд, они наконец-то будут счастливы вместе, Рико получил ту девушку, о которой мечтал. Или нет?
Вполне очевидно, что Кармен немедленно бросит Рико, когда на горизонте появится кто-нибудь поинтереснее. Её чувства к нему уже не прошли самого базового испытания отдалённостью. Это человеческая трагедия, аккуратно замаскированная под счастливый конец: Джонни опять остаётся один.
Обожаю этот жанр статей про искусственный интеллект — «инструмент на ИИ смог выполнить задачу! это достойно восхищения или как минимум обсуждения вслух!». То есть новостью является то, что у кого-то получилось путём тщательного скаффолдинга, прайминга, ручной валидации и ловкого промптинга повторить сделанное человеком. Для этого пришлось зарядить два запроса в ChatGPT 5 Pro (запросов в которую вообще-то дают всего 20 штук в месяц) и прождать треть часа.
Конкретно в данном случае нет никакой попытки исследовать, смогла ли бы такое осуществить более традиционная система компьютерной алгебры. Подгонка неизвестных коэффициентов, упрощение тензорных выражений, решение систем условий — такую рутину давно автоматизируют. Зачем тут два запроса в суперкомпьютер, который двадцать минут теребит языковые модели, если есть шанс получить ответ от ноутбука?
Отдельно меня радует то, как человека представили:
Физик Алекс Лупаска
И сотрудник OpenAI. Вернее, он в команде, которая продвигает продукты OpenAI среди учёных. Про конфликт интересов и говорить не приходится. Как можно было умолчать, что это теперь сотрудник OpenAI, который напрямую буквально занят продвижением ChatGPT?
Тролль, по всей видимости, из России прислал шуточный пулл-реквест с детектированием кода от датчанина, шведа и поляка. Первому прилетело за критику состояния столицы Великобритании, второму — за споры с гречанкой о местоимениях, третьему — за публичную перепалку с разработчиком из Нидерландов. В итоге мейнтейнер из Варшавы этот шуточный пулл-реквест отклонил.
Комментарии: Хабр занесло в американскую политику.
Я не могу уже видеть эти бредовые комментарии от людей, которые статьи не читают.
PDP-11 в разных модификациях произвели порядка 600 тыс. штук, автоматов Tempest — меньше тридцати тысяч. Это как на один стол положить iPhone 15 и шлем Vision Pro, а потом смотреть, что у людей больше вызывает внимания.
Не согласен. На мой взгляд, плохо и низкокалорийно. Ну давайте по пунктам.
Редукционизм изобрели в пятом веке до нашей эры. Тоже мне откровение. Совет понятный, но очевидный. Куда полезнее очертить оптимальный объём работы для каждого промпта. Сколько оптимально токенов должно быть в вводе и выводе? Человек с опытом немедленно покажет примеры, большая языковая модель будет давать общие указания.
Писать детальный промпт — самый хороший совет. Я бы разве что рекомендовал представлять не младшего разработчика, а дьявола, который будет делать всё наоборот (вразрез с вашими ожиданиями), если вы не оговорили обратное. Для начала нужно задуматься, какие из ваших ожиданий остаются невысказанными и, собственно, высказать эти ожидания.
См. пункт 1.
Проверять вывод БЯМ — тоже неплохой совет. Обратите внимание, что он опять дан словами Капитана Очевидность, без примеров из практики.
См. пункт 4.
Итого пять советов, из которых в реальности будет три. И все даются максимально общими словами.
Именно так пишут дешёвые языковые модели: мало смысла, слов избыток. Модель не назову, но не думаю, что здесь бесплатный тариф. Думаю, БЯМ была без reasoning.
Вы тут уже 5 месяцев, и пора бы уже заметить, что на Хабре нет премодерации, есть постмодерация. Любой желающий может опубликовать что душе угодно, и это немедленно появится в общей ленте. Потом придёт модератор и оценит нарушение правил, но вообще-то никто не мешает публиковать что угодно.
Типовое нытьё о несправедливости мира. На Хабре такие появляются ежерегулярно.
Длинные тире. Думаю, тут и комментарии излишне. Авторы крайне редко будут использовать данный символ
Вы сейчас упадёте: в абсолютно любой переписке лично я использую не только длинные тире, „красивые“ «кавычки» и прочие заметные типографские знаки, но и также в нужных местах ставлю неразрывные пробелы — чего без анализа кодов символов вы просто не заметите.
Если вы собираетесь что-то писать, поставьте себе «Типографскую раскладку» Ильи Бирмана и не позорьтесь. Единственное, над чем мне приходится возиться — так это акуты, поэтому этот символ я каждый раз копирую из «Википедии».
Все остальные перечисленные вами признаки сгенерированного текста присущи вашему собственному. Любовь к выделению полужирным, нумерованным и маркированным спискам, избыток подзаголовков — это всё у вас в тексте тоже.
Вы жалуетесь на то, что статьи на Хабре якобы пишутся с помощью больших языковых моделей. При этом ваша собственная жалоба на четверть состоит из текста, сгенерированного БЯМ.
Это какая-то извращённая ирония или что? Ваш текст выглядит именно так, как ругаемые вами публикации.
И это лишь малая часть признаков, по которым определяются подобные статьи.
Я регулярно общаюсь с платной версией ChatGPT, включая запросы в Pro-вариант и длинные отчёты из функции Deep Research. Общаюсь с другими БЯМ: Claude, Gemini, DeepSeek. Ни один из перечисленных вами или нейросетью признаков надёжным маркером не является.
Если показать языковой модели материал, который нужно пересказать, и пример текста, который нужно продолжить, то она может выдать текст без каких-либо маркированных и нумерованных списков. Сделает она это с учётом всех особенностей идиолекта примера.
Вот так может выглядеть текст от языковой модели. Для его написания она опиралась на 9 различных источников.
Понятно, что для публикации куда-либо такой ответ не годится. Текст иногда откровенно ужасен, иногда меня попросту не удовлетворяет своим качеством. БЯМ не может думать, поэтому она теряет те факты, которые нужно обязательно указать. К примеру, языковая модель не расписала, почему так важны судоходные коридоры (вершины этих графов не привязаны к населённым пунктам, они где-то посреди океанов).
Однако где здесь нумерованные и маркированные списки? Где шаблонность? Подзаголовки есть, но они легко удаляются. Вводных фраз и клише тут вообще нет. Более того, я попросил подсказать мне графики, какие нужно заскриншотить, что решает проблему с иллюстрациями. Этот текст при минимальной доработке мог бы выглядеть полностью человеческим.
Выделение полужирным — это вообще не довод. Ненужное выделение полужирным убирается копированием и вставкой.
Я замечаю только два раздражающих маркера, которые вот так просто не удалить и в глаза они не бросаются: любовь к заключению выражений в переносном смысле в кавычки, а также синтез новых слов и выражений. В примере выше это «картограф-письменник» и «косит» в значении «испытывает сдвиг по координатам». Работают эти признаки только в русском языке.
А вывод тут такой, что платную версию ChatGPT вам не опознать. В лучшем случае ваши признаки работают для бесплатных тарифов. То, что вам доизобрела какая-то БЯМ — это вообще полёт фантазии.
Кстати, зачем вы написанный языковой моделью ответ заключили в спойлер? Если фрагмент текста хочется спрятать, то его нужно из статьи убрать.
Меня, как автора, убивает простая математика: статья на 5 минут, написанная языковой моделью за 2 минуты, собирает в два раза больше плюсов, чем блок моих статей про rsync, на который я потратил шесть вечеров.
С чего вы вообще взяли, что значения кармы и рейтинга показывают в этой жизни хоть что-нибудь? Ценность невозможно отразить в числовом значении рейтинга. Ценность любого материала для разных людей разная. Именно поэтому поверхностно охватывающие много общих тем публикации всегда будут популярнее, чем глубокое копание в одной узкой нише.
Вам же не приходит в голову говорить, что бедные люди хуже (или лучше) богатых? Почему тогда вы так, пардон, дрочите на рейтинг? Эти числа ничего не отражают. В два раза больше? Ну набрала и набрала.
Так на Хабре было абсолютно всегда, в том числе до ИИ: чем легче тема, тем она популярней. ИИ тут вообще ни при чём. До этого были жалобы, что авторы неглубоких тем или вообще шутеечек собирают рейтинга куда больше, чем любители сидеть у себя в уголке и тихо копать вглубь контент для профессионального роста. Вы не первый и не последний.
Как и у всех ваших предшественников, у вас здесь сразу заложено следующее допущение: статья, которую вы писали шесть вечеров, заведомо лучше. Трудовая теория стоимости работает не всегда, поэтому допущение ошибочно.
«Писать шесть вечеров» — это может быть шесть вечеров выяснения функций, проверки и чтения документации. В большую языковую модель все эти знания заложены и так. В её весах уже лежат все страницы документации и тысячи обсуждений на форумах. Это как жаловаться, что калькулятор считает быстрее.
И вообще, какие-то голоса за несколько дней — не показатель. Результат вашей работы может набирать заслуженные просмотры месяцами и годами.
Если вас так парит, что кто-то набирает больше рейтинга, пересмотрите, что не так с вашими текстами, а не бросайтесь обвинять мир в несправедливости. Пишите в обнимку с нейросетью, необязательно всё выполнять полностью вручную. Возьмите нейросетевой текст и посмотрите, что упоминает языковая модель, сравните с собственным и так далее.
Как читателю, мне неприятно поглощать этот гладкий и безвкусный фастфуд — спросить у LLM я могу и сам.
Это вас огорчает, а должно радовать.
Если вам не нравится шлак от ИИ — вы не один такой в мире. Ваш текст нравится вам самому — понравится хоть кому-то ещё. То есть поклонники у ваших статей найдутся всегда. О чём эти переживания?
Я не могу ссылаться на примеры, это абсолютно неэтично и должно наказываться со стороны администрации Хабр.
А делать голословные обвинения в адрес неопределённого круга людей — это этично?
Вы называете некий аморфный массив публикаций сгененированным ИИ, но отказываетесь демонстрировать любые примеры. Допускаете ли вы факт, что можете заблуждаться? Повторяю ещё раз: ваша собственная статья-жалоба соответствует вашим же критериям текста от ИИ. Более того, она уже состоит на четверть из ответа языковой модели.
ИИ в нынешнем состоянии — это не искусственный интеллект.
«Искусственный интеллект — это не искусственный интеллект». Ну вот как вы пишете вообще? Лучше так: «В его нынешнем виде ИИ интеллектом назвать получается с натяжкой».
Если бы в мои задачи входило оболгать чей-то текст, то подобное было бы легко обозвать галлюцинацией. Вам не кажется, что абсолютно любые речевые изъяны легко подогнать под критерии «да это ChatGPT писал»? Вы не думаете, что в прошлом кого-то мысленно обвинили вот так же незаслуженно?
В моей группе в Телеграмм разбираем практические кейсы
Ну хорошо, у нового поколения жалобщиков всё же есть отличие: теперь в конце ставят рекламную ссылку на канал в «Телеграме».
«Телеграм» пишется с одной «м». Даже если вы настолько жаждете добавить вторую, в русском языке слова склоняются: в «Телеграмме».
Конечно, не могу высказать ничего против экспериментов с искусственным интеллектом. Я просто хочу напомнить, что Мэрилин Гроув делала эти зарисовочки, когда отсылала открытки и оставляла записочки своему возлюбленному и будущему мужу Роберто Казали. (Да, это родители тех самых братьев Казали, которые наделали уровней Plutonia Experiment для Final Doom и потом много работали в геймдеве).
В этом вся суть: это было выражение её эмоций, уникальное послание от себя, а не что-то стандартизированное и размноженное. Эта записки она оставляла у него под подушкой и засовывала в карманы одежды как напоминание о своих чувствах. Нейросеть, увы, может повторить только стиль изображений.
Мне казалось, это отдельный форк.
Я не натыкался. Вообще, идея отдать контроль над компьютером или хотя бы научить этому будто всегда витала в воздухе: ReAct [arXiv:2210.03629], Toolformer [arXiv:2302.04761], AutoGPT, BabyAGI, SuperAGI, OpenHands [arXiv:2407.16741] и так далее.
А он родился и вырос в англоязычной среде?
Кстати, а почему мне должно быть не всё равно, что там в английском языке?
yt-dlp -f bestaudio --remux-video opus --embed-thumbnail --convert-thumbnails jpg --add-metadatahttps://www.youtube.com/watch?v=VMWS6LhJYjIДумаю, должно сработать. Добавьте там в конце
--cookies-from-browser Firefox(или какой у вас браузер) при необходимости. Также возможно убрать ненужности (--sponsorblock-remove "music_offtopic,sponsor,selfpromo,interaction,intro,outro,preview,filler").Файловый размер по определению будет меньше, чем у MP3 эквивалентного качества, поскольку Opus 128 Кбит/с — это примерно как MP3 192 Кбит/с, если не 256.
Зачем вы перегоняете в MP3, если Opus (в котором обычно лежат аудиодорожки на YouTube) сегодня поддерживается любым медиапроигрывателем? И битрейт там вполне хороший: для Opus 128 Кбит/с — это порог прозрачности. Лично я всю мобильную аудиобиблиотеку перегнал из лосслесса в Opus.
Ну и зря — языковые модели всегда выражаются однотипно, текст у них построен похоже. В итоге весь Интернет забит текстами одинакового стиля и темпа, у них очень похоже используются знаки препинания и членятся предложения в абзацах, а текст — на абзацы.
Как будто сразу все в мире прочитали «50 приёмов письма» Роя Питера Кларка и решили, что в перечислениях всегда нужно иметь не больше трёх членов. Ну и этот дешёвый приём для создания темпа повествования и выставления интонации, когда длинные предложения из 2–3 основ перемежаются предложениями из одного-двух слов.
При этом это усреднение всех человеческих знаний никогда не звучит естественно, оно идеализированно несовершенно. Примеры:
«Брифинг» вполне себе слово в русском языке.
А вот подстрочник elephant in the room просто не работает.
Если языковая модель описывает техническое устройство чего угодно, то всегда появляется «капот», под которым что-то находится.
Бросается в глаза этот приём.
Предполагаю, что большие языковые модели выравнивали так, что они обожают лепить сравнения везде, в том числе не к месту. Видимо, считается, что так будет красивше.
Кстати, про Джарвиса в тексте очень много.
А ещё в речи БЯМ есть такой приём, как «это не X, это Y». Они его пихают в избытке. Приём настолько частый, что уже реальные люди так начали выражаться непропорционально часто, мне это чуточку осточертело.
Ну вот честно, так люди не пишут:
У меня подобное всегда создаёт отторжение.
ИИ выгоднее использовать для помощи при письме, задавать ему вопросы, требовать искать по источникам и составлять отчёты. Но в конечном тексте всегда должен остаться аромат человека, а не этот леденящий холод машины и отпечаток глупостей из датасетов предобучения.
А запятые могут расставлять сервисы по типу https://orfogrammka.ru/ Никакие БЯМ для проверки орфографии не нужны.
Вы какую-то языковую модель для оформления статьи использовали? В некоторых абзацах темп речи похож.
Вам теперь введение придётся переписывать, потому что за час до публикации вашей статьи проект опять переименовался.
Это вы ещё Виталика Бутерина не видели.
Каких учёных? Имена, учёные степени?
В оригинале тоже расплывчато: «several experts who reviewed the page were unable to discern their meaning and thus their purpose had remained elusive». Что за «несколько экспертов»? О чём вообще речь?
Почему это потом раздуто в факт, будто вся современная историческая наука не может найти объяснения? Не названы никакие имена, просто сказано, что кто-то неизвестный не смог найти объяснений. А у вас написано: «ставили ученых в тупик на протяжении веков».
В оригинале это подано как «highly plausible explanation», то есть это правдоподобная гипотеза, а не разгадка. Тут ИИ предложил интерпретацию, а не тайна разгадана. Нужна проверка специалистом (историком, латинистом), а не этот самоуверенный заголовок.
Звучит как маркетинговая драматизация. В самом посте GDELT видно, что модель переосмысливает чтение цифр и дат, исправляет сама себя и пересобирает объяснение. Можно спорить, считать ли это одной попыткой, но в читательском восприятии «с первой попытки» значит «сразу точно и безошибочно». А этого там нет.
Вообще, пост GDELT — почти полностью просто копирование выдачи Gemini. Тут речь не про опубликованную научную статью, а буквально пост в каком-то блоге, где кто-то скопировал ответ от языковой модели.
Вот это уже просто опасная подмена понятий. В оригинале автор сам в промпте задаёт широкий контекст по датам (условно «между концом XV и XVII вв.»), а ответ модели — общий (обычно указывается «16th or 17th century», про 1500–1550 указывается всего в одном случае) и часто без реальной методики. «Палеографический анализ по чернилам» — это то, что в норме требует источниковедения, сравнительных образцов и ответственности эксперта. Тут этого нет, это лишь уверенно звучащий текст от БЯМ.
Цена запроса по тарифу — не то же самое, что себестоимость разгадки и тем более не гарантия воспроизводимости. В реальности стоимость и точность зависят от настроек, качества изображения, количества прогонов и того, как именно задавали промпты. Вывод уровня «можно масштабировать на архивы и сделать это дёшево» — логический скачок.
Это самый слабый вывод. Даже если конкретно здесь гипотеза правдоподобна, это не демонстрирует главного: валидации на массиве текстов, оценки ошибок, ложных срабатываний, устойчивости к качеству сканов, разным почеркам, языкам, сокращениям и так далее.
Больше похоже на рекламный слоган, чем на вывод из эксперимента.
Наконец, важно проговорить возможный конфликт интересов.
Организация GDELT сама пишет у себя на сайте: Supported by Google Jigsaw, а автор поста публично позиционирует себя как Google Developer Expert и до этого много писал про пользу ИИ от Google. Это не означает, что всё проплачено. Ну или подтверждений у меня нет. Но это в первую очередь нужно рассматривать как демку возможностей Gemini из близкого к экосистеме Google источника, а не как независимую валидацию результата историками.
В этой позиции Google выступает в роли догоняющей. У OpenAI есть схожий проект OpenAI for Science. Недавно по микроблогам бегал какой-то физик, утверждавший, что ChatGPT 5 Pro ему решил какие-то вычисления за полчаса, хотя это занимало дни, помните его? Он член OpenAI for Science, и его заинтересованность в таких выводах очевидна.
Думаю, Google тоже активно пытается продвигать собственные ИИ-решения как важный инструмент для учёных. Ситуация похожая: связанный с некоей компанией учёный публикует что-то, где нахваливает качество работы продукта компании. Данный пример лично я склонен считать эффективными пиар-усилиями, а не реальным прорывом.
Зачем вас поддерживать, если вы двух фактов вместе сложить не можете, а просто транслируете чужую повестку? Вы же вроде новости читаете, и можете сделать понятный вывод. Где ваша «творческая сторона»?
И не только это. Взять, к примеру, отношения между полами. Они тоже внешне развиваются хорошо, но на деле всё заканчивается ужасно.
В фильме Пауля Верхувена показаны два любовных треугольника:
Рядовой Джонни Рико, лейтенант Кармен Ибаньес, лейтенант Зандер Баркалоу.
Лейтенант Кармен Ибаньес, рядовой Джонни Рико, рядовой Диззи Флорес.
Кармен встречается с Рико в школе, но после поступления на пилота бросает Джонни по видеозвонку и дальше встречается со своим наставником.
К Рико проявляет огромный интерес Флорес: она буквально переводится туда же, где служит он. Поскольку с Кармен у Джонни не наладилось, он переключается на Диззи.
В конечном итоге:
Диззи погибает в бою.
Зандеру высасывают мозги.
В конце фильма Джонни и Кармен воссоединяются. Казалось бы, хэппи энд, они наконец-то будут счастливы вместе, Рико получил ту девушку, о которой мечтал. Или нет?
Вполне очевидно, что Кармен немедленно бросит Рико, когда на горизонте появится кто-нибудь поинтереснее. Её чувства к нему уже не прошли самого базового испытания отдалённостью. Это человеческая трагедия, аккуратно замаскированная под счастливый конец: Джонни опять остаётся один.
Он всего пять лет назад обещал к 2050 году.
В любом случае это всё на совести автора оригинала. Передано тут корректно.
Обожаю этот жанр статей про искусственный интеллект — «инструмент на ИИ смог выполнить задачу! это достойно восхищения или как минимум обсуждения вслух!». То есть новостью является то, что у кого-то получилось путём тщательного скаффолдинга, прайминга, ручной валидации и ловкого промптинга повторить сделанное человеком. Для этого пришлось зарядить два запроса в ChatGPT 5 Pro (запросов в которую вообще-то дают всего 20 штук в месяц) и прождать треть часа.
Конкретно в данном случае нет никакой попытки исследовать, смогла ли бы такое осуществить более традиционная система компьютерной алгебры. Подгонка неизвестных коэффициентов, упрощение тензорных выражений, решение систем условий — такую рутину давно автоматизируют. Зачем тут два запроса в суперкомпьютер, который двадцать минут теребит языковые модели, если есть шанс получить ответ от ноутбука?
Отдельно меня радует то, как человека представили:
И сотрудник OpenAI. Вернее, он в команде, которая продвигает продукты OpenAI среди учёных. Про конфликт интересов и говорить не приходится. Как можно было умолчать, что это теперь сотрудник OpenAI, который напрямую буквально занят продвижением ChatGPT?
Как можно было так грубо исковеркать его имя? Мужика зовут Алекс Лупсаска. Вот вам бот для транскрипции имён, он делает всё автоматически https://chatgpt.com/g/g-680de9ea2f488191b3d3996173ba6126-name-transcriber
Тролль, по всей видимости, из России прислал шуточный пулл-реквест с детектированием кода от датчанина, шведа и поляка. Первому прилетело за критику состояния столицы Великобритании, второму — за споры с гречанкой о местоимениях, третьему — за публичную перепалку с разработчиком из Нидерландов. В итоге мейнтейнер из Варшавы этот шуточный пулл-реквест отклонил.
Комментарии: Хабр занесло в американскую политику.
Я не могу уже видеть эти бредовые комментарии от людей, которые статьи не читают.
PDP-11 в разных модификациях произвели порядка 600 тыс. штук, автоматов Tempest — меньше тридцати тысяч. Это как на один стол положить iPhone 15 и шлем Vision Pro, а потом смотреть, что у людей больше вызывает внимания.
Не согласен. На мой взгляд, плохо и низкокалорийно. Ну давайте по пунктам.
Редукционизм изобрели в пятом веке до нашей эры. Тоже мне откровение. Совет понятный, но очевидный. Куда полезнее очертить оптимальный объём работы для каждого промпта. Сколько оптимально токенов должно быть в вводе и выводе? Человек с опытом немедленно покажет примеры, большая языковая модель будет давать общие указания.
Писать детальный промпт — самый хороший совет. Я бы разве что рекомендовал представлять не младшего разработчика, а дьявола, который будет делать всё наоборот (вразрез с вашими ожиданиями), если вы не оговорили обратное. Для начала нужно задуматься, какие из ваших ожиданий остаются невысказанными и, собственно, высказать эти ожидания.
См. пункт 1.
Проверять вывод БЯМ — тоже неплохой совет. Обратите внимание, что он опять дан словами Капитана Очевидность, без примеров из практики.
См. пункт 4.
Итого пять советов, из которых в реальности будет три. И все даются максимально общими словами.
Именно так пишут дешёвые языковые модели: мало смысла, слов избыток. Модель не назову, но не думаю, что здесь бесплатный тариф. Думаю, БЯМ была без reasoning.
Вы тут уже 5 месяцев, и пора бы уже заметить, что на Хабре нет премодерации, есть постмодерация. Любой желающий может опубликовать что душе угодно, и это немедленно появится в общей ленте. Потом придёт модератор и оценит нарушение правил, но вообще-то никто не мешает публиковать что угодно.
Типовое нытьё о несправедливости мира. На Хабре такие появляются ежерегулярно.
Вы сейчас упадёте: в абсолютно любой переписке лично я использую не только длинные тире, „красивые“ «кавычки» и прочие заметные типографские знаки, но и также в нужных местах ставлю неразрывные пробелы — чего без анализа кодов символов вы просто не заметите.
Если вы собираетесь что-то писать, поставьте себе «Типографскую раскладку» Ильи Бирмана и не позорьтесь. Единственное, над чем мне приходится возиться — так это акуты, поэтому этот символ я каждый раз копирую из «Википедии».
Все остальные перечисленные вами признаки сгенерированного текста присущи вашему собственному. Любовь к выделению полужирным, нумерованным и маркированным спискам, избыток подзаголовков — это всё у вас в тексте тоже.
Вы жалуетесь на то, что статьи на Хабре якобы пишутся с помощью больших языковых моделей. При этом ваша собственная жалоба на четверть состоит из текста, сгенерированного БЯМ.
Это какая-то извращённая ирония или что? Ваш текст выглядит именно так, как ругаемые вами публикации.
Я регулярно общаюсь с платной версией ChatGPT, включая запросы в Pro-вариант и длинные отчёты из функции Deep Research. Общаюсь с другими БЯМ: Claude, Gemini, DeepSeek. Ни один из перечисленных вами или нейросетью признаков надёжным маркером не является.
Если показать языковой модели материал, который нужно пересказать, и пример текста, который нужно продолжить, то она может выдать текст без каких-либо маркированных и нумерованных списков. Сделает она это с учётом всех особенностей идиолекта примера.
Вот так может выглядеть текст от языковой модели. Для его написания она опиралась на 9 различных источников.
Понятно, что для публикации куда-либо такой ответ не годится. Текст иногда откровенно ужасен, иногда меня попросту не удовлетворяет своим качеством. БЯМ не может думать, поэтому она теряет те факты, которые нужно обязательно указать. К примеру, языковая модель не расписала, почему так важны судоходные коридоры (вершины этих графов не привязаны к населённым пунктам, они где-то посреди океанов).
Однако где здесь нумерованные и маркированные списки? Где шаблонность? Подзаголовки есть, но они легко удаляются. Вводных фраз и клише тут вообще нет. Более того, я попросил подсказать мне графики, какие нужно заскриншотить, что решает проблему с иллюстрациями. Этот текст при минимальной доработке мог бы выглядеть полностью человеческим.
Выделение полужирным — это вообще не довод. Ненужное выделение полужирным убирается копированием и вставкой.
Я замечаю только два раздражающих маркера, которые вот так просто не удалить и в глаза они не бросаются: любовь к заключению выражений в переносном смысле в кавычки, а также синтез новых слов и выражений. В примере выше это «картограф-письменник» и «косит» в значении «испытывает сдвиг по координатам». Работают эти признаки только в русском языке.
А вывод тут такой, что платную версию ChatGPT вам не опознать. В лучшем случае ваши признаки работают для бесплатных тарифов. То, что вам доизобрела какая-то БЯМ — это вообще полёт фантазии.
Кстати, зачем вы написанный языковой моделью ответ заключили в спойлер? Если фрагмент текста хочется спрятать, то его нужно из статьи убрать.
С чего вы вообще взяли, что значения кармы и рейтинга показывают в этой жизни хоть что-нибудь? Ценность невозможно отразить в числовом значении рейтинга. Ценность любого материала для разных людей разная. Именно поэтому поверхностно охватывающие много общих тем публикации всегда будут популярнее, чем глубокое копание в одной узкой нише.
Вам же не приходит в голову говорить, что бедные люди хуже (или лучше) богатых? Почему тогда вы так, пардон, дрочите на рейтинг? Эти числа ничего не отражают. В два раза больше? Ну набрала и набрала.
Так на Хабре было абсолютно всегда, в том числе до ИИ: чем легче тема, тем она популярней. ИИ тут вообще ни при чём. До этого были жалобы, что авторы неглубоких тем или вообще шутеечек собирают рейтинга куда больше, чем любители сидеть у себя в уголке и тихо копать вглубь контент для профессионального роста. Вы не первый и не последний.
Как и у всех ваших предшественников, у вас здесь сразу заложено следующее допущение: статья, которую вы писали шесть вечеров, заведомо лучше. Трудовая теория стоимости работает не всегда, поэтому допущение ошибочно.
«Писать шесть вечеров» — это может быть шесть вечеров выяснения функций, проверки и чтения документации. В большую языковую модель все эти знания заложены и так. В её весах уже лежат все страницы документации и тысячи обсуждений на форумах. Это как жаловаться, что калькулятор считает быстрее.
И вообще, какие-то голоса за несколько дней — не показатель. Результат вашей работы может набирать заслуженные просмотры месяцами и годами.
Если вас так парит, что кто-то набирает больше рейтинга, пересмотрите, что не так с вашими текстами, а не бросайтесь обвинять мир в несправедливости. Пишите в обнимку с нейросетью, необязательно всё выполнять полностью вручную. Возьмите нейросетевой текст и посмотрите, что упоминает языковая модель, сравните с собственным и так далее.
Это вас огорчает, а должно радовать.
Если вам не нравится шлак от ИИ — вы не один такой в мире. Ваш текст нравится вам самому — понравится хоть кому-то ещё. То есть поклонники у ваших статей найдутся всегда. О чём эти переживания?
А делать голословные обвинения в адрес неопределённого круга людей — это этично?
Вы называете некий аморфный массив публикаций сгененированным ИИ, но отказываетесь демонстрировать любые примеры. Допускаете ли вы факт, что можете заблуждаться? Повторяю ещё раз: ваша собственная статья-жалоба соответствует вашим же критериям текста от ИИ. Более того, она уже состоит на четверть из ответа языковой модели.
«Искусственный интеллект — это не искусственный интеллект». Ну вот как вы пишете вообще? Лучше так: «В его нынешнем виде ИИ интеллектом назвать получается с натяжкой».
Если бы в мои задачи входило оболгать чей-то текст, то подобное было бы легко обозвать галлюцинацией. Вам не кажется, что абсолютно любые речевые изъяны легко подогнать под критерии «да это ChatGPT писал»? Вы не думаете, что в прошлом кого-то мысленно обвинили вот так же незаслуженно?
Ну хорошо, у нового поколения жалобщиков всё же есть отличие: теперь в конце ставят рекламную ссылку на канал в «Телеграме».
«Телеграм» пишется с одной «м». Даже если вы настолько жаждете добавить вторую, в русском языке слова склоняются: в «Телеграмме».
ChatGPT, Claude и другие подобные сервисы не умеют определять, сгенерирован ли текст человеком или БЯМ.