Этот комментарий и прошлая статья на эту тему — всё, что могу изложить в виде правил. Если много читать ответы от больших языковых моделей, то постепенно получается нутром распознавать этот характерный стиль самых дешёвых из них. Это вкус, который нужно вырабатывать.
Всё заключается именно в объёме каждой из характеристик:
Конкретная мера высокой грамотности письма в комбинации с неожиданными конструкциями;
Тщательно подобранные синонимы для избегания повторов, но когда это семантически обосновано, повторы слов есть;
Предсказуемость размышлений;
Характерный темп речи при выборе размера предложений;
В русском языке — любовь к кавычкам при малейшей степени переносного смысла, будто это максимально литературный текст;
Любовь к тире и скобкам;
Изобретательные, но ненужные сравнения;
«Это не X. Это Y»;
Стремление подводить итоги.
Не всегда распознать легко, но «машинность» текста тем выше, чем дешевле использованная языковая модель. Что удивительно, обычно никто не удосуживается копипастить ответы из ChatGPT 5.2 Pro или хотя бы платной 5.2 Thinking.
Что ещё более удивительно, многие зачем-то пишут собственный текст, скармливают его в ChatGPT, чтобы тот изрыгнул эту прилизанную под машинность склизкую массу. Зачем так делать — вообще за гранью понимания. Основная проблема ведь не в том, что кто-то проявил недостаточно усилий, проблема в том, что читать машинный текст неинтересно.
Кто проводил анализ? Кто писал текст? Статья похожа на сгененированную.
О каком расширении идёт речь? Ссылок на него нет. Вообще, под похожими именами распространяются как минимум два расширения. Если начинаю искать, то могу с лёгкостью перепутать.
2. Пузырь не лопнул, но трещины даёт. Сейчас идут странные разговоры, когда глава Nvidia то вдруг на каком-то созвоне обмолвился про необязательность стомиллиардной сделки c OpenAI, то затем Хуан эмоционально открещивается от сказанного.
После прочтения текста сложилось стойкое ощущение, что у меня родители были куда лучше ваших. Они меня не били в детстве, если я внятно выражался и называл вещи своими именами вместо «жёлтого банка» или «красного продуктового магазина».
Нет никаких причин думать, что вас затаскают по судам, если вы положительно или отрицательно отзовётесь про «Уайлдберис» или «Стор-77». Зачем вы сами себя ограничиваете?
Ну не знаю, какие-нибудь 122-клавишные клавиатуры для компьютерных терминалов. А какие ещё производят? Unicomp PC 122?
Думаю, легче купить с переназначаемыми клавишами или взять программируемые геймборды. Только зачем? Почему обычные клавиатуры — неполноценные? У меня на ErgoDox EZ всего 76 переназначаемых клавиш, по 38 на руку, и мне хватает.
Настоящий человек-переводчик разве не постарался бы вам помочь схожим образом
Зачем мне косплей человека внутри машинного переводчика?
Нет, не постарался бы.
Такой логикой можно оправдать высокую вероятность пожара от современного выключателя света: ведь настоящая восковая свеча — это открытый огонь, почему проводка не должна искрить?
Конечно, не могу высказать ничего против экспериментов с искусственным интеллектом. Я просто хочу напомнить, что Мэрилин Гроув делала эти зарисовочки, когда отсылала открытки и оставляла записочки своему возлюбленному и будущему мужу Роберто Казали. (Да, это родители тех самых братьев Казали, которые наделали уровней Plutonia Experiment для Final Doom и потом много работали в геймдеве).
В этом вся суть: это было выражение её эмоций, уникальное послание от себя, а не что-то стандартизированное и размноженное. Эта записки она оставляла у него под подушкой и засовывала в карманы одежды как напоминание о своих чувствах. Нейросеть, увы, может повторить только стиль изображений.
Думаю, должно сработать. Добавьте там в конце --cookies-from-browser Firefox (или какой у вас браузер) при необходимости. Также возможно убрать ненужности (--sponsorblock-remove "music_offtopic,sponsor,selfpromo,interaction,intro,outro,preview,filler").
Файловый размер по определению будет меньше, чем у MP3 эквивалентного качества, поскольку Opus 128 Кбит/с — это примерно как MP3 192 Кбит/с, если не 256.
Зачем вы перегоняете в MP3, если Opus (в котором обычно лежат аудиодорожки на YouTube) сегодня поддерживается любым медиапроигрывателем? И битрейт там вполне хороший: для Opus 128 Кбит/с — это порог прозрачности. Лично я всю мобильную аудиобиблиотеку перегнал из лосслесса в Opus.
Ну и зря — языковые модели всегда выражаются однотипно, текст у них построен похоже. В итоге весь Интернет забит текстами одинакового стиля и темпа, у них очень похоже используются знаки препинания и членятся предложения в абзацах, а текст — на абзацы.
Как будто сразу все в мире прочитали «50 приёмов письма» Роя Питера Кларка и решили, что в перечислениях всегда нужно иметь не больше трёх членов. Ну и этот дешёвый приём для создания темпа повествования и выставления интонации, когда длинные предложения из 2–3 основ перемежаются предложениями из одного-двух слов.
При этом это усреднение всех человеческих знаний никогда не звучит естественно, оно идеализированно несовершенно. Примеры:
Две недели утренних briefing'ов о качестве сна
«Брифинг» вполне себе слово в русском языке.
Окей, слон в комнате.
А вот подстрочник elephant in the room просто не работает.
Под капотом
Если языковая модель описывает техническое устройство чего угодно, то всегда появляется «капот», под которым что-то находится.
И — да — две недели граблей
восторженных тредов и — что особенно забавно — фотографий коробок
и — главное — какие use cases реально работают
Бросается в глаза этот приём.
это как найти крутой инди-альбом за полгода до того, как он попадёт во все плейлисты
алюминиевый кирпичик на столе, который 24/7 работает вашим персональным Джарвисом
Если Claude Code на вашем Mac — это молоток, который вы берёте в руки, когда нужно, то Moltbot — это молоток с ногами и руками
Покупать Mac Mini для Moltbot — это как покупать Ferrari, чтобы ездить за хлебом.
Это как завести щенка: милый, умный, но первый месяц будет грызть тапки и писать на ковёр.
Предполагаю, что большие языковые модели выравнивали так, что они обожают лепить сравнения везде, в том числе не к месту. Видимо, считается, что так будет красивше.
Кстати, про Джарвиса в тексте очень много.
Это уже не тупой будильник. Это accountability partner
Это не приложение, которое вы запускаете — это сервис, который работает постоянно
Изоляция — это не паранойя, это гигиена
И это не гипотеза — люди уже это делают.
получаете реального помощника, а не игрушку
А ещё в речи БЯМ есть такой приём, как «это не X, это Y». Они его пихают в избытке. Приём настолько частый, что уже реальные люди так начали выражаться непропорционально часто, мне это чуточку осточертело.
Ну вот честно, так люди не пишут:
€5 в месяц. Вечер на установку. Две недели на притирку. И у вас есть свой Джарвис.
У меня подобное всегда создаёт отторжение.
ИИ выгоднее использовать для помощи при письме, задавать ему вопросы, требовать искать по источникам и составлять отчёты. Но в конечном тексте всегда должен остаться аромат человека, а не этот леденящий холод машины и отпечаток глупостей из датасетов предобучения.
А запятые могут расставлять сервисы по типу https://orfogrammka.ru/ Никакие БЯМ для проверки орфографии не нужны.
Четыре круглые пометки с латинскими сокращениями и римскими цифрами на полях страницы ставили ученых в тупик на протяжении веков
Каких учёных? Имена, учёные степени?
В оригинале тоже расплывчато: «several experts who reviewed the page were unable to discern their meaning and thus their purpose had remained elusive». Что за «несколько экспертов»? О чём вообще речь?
Почему это потом раздуто в факт, будто вся современная историческая наука не может найти объяснения? Не названы никакие имена, просто сказано, что кто-то неизвестный не смог найти объяснений. А у вас написано: «ставили ученых в тупик на протяжении веков».
Gemini […] разгадал
В оригинале это подано как «highly plausible explanation», то есть это правдоподобная гипотеза, а не разгадка. Тут ИИ предложил интерпретацию, а не тайна разгадана. Нужна проверка специалистом (историком, латинистом), а не этот самоуверенный заголовок.
с первой попытки
Звучит как маркетинговая драматизация. В самом посте GDELT видно, что модель переосмысливает чтение цифр и дат, исправляет сама себя и пересобирает объяснение. Можно спорить, считать ли это одной попыткой, но в читательском восприятии «с первой попытки» значит «сразу точно и безошибочно». А этого там нет.
Вообще, пост GDELT — почти полностью просто копирование выдачи Gemini. Тут речь не про опубликованную научную статью, а буквально пост в каком-то блоге, где кто-то скопировал ответ от языковой модели.
Gemini […] провёл палеографический анализ почерка […] по использованию чернил […] датировал 1500–1550
Вот это уже просто опасная подмена понятий. В оригинале автор сам в промпте задаёт широкий контекст по датам (условно «между концом XV и XVII вв.»), а ответ модели — общий (обычно указывается «16th or 17th century», про 1500–1550 указывается всего в одном случае) и часто без реальной методики. «Палеографический анализ по чернилам» — это то, что в норме требует источниковедения, сравнительных образцов и ответственности эксперта. Тут этого нет, это лишь уверенно звучащий текст от БЯМ.
всего за 2 рубля
Цена запроса по тарифу — не то же самое, что себестоимость разгадки и тем более не гарантия воспроизводимости. В реальности стоимость и точность зависят от настроек, качества изображения, количества прогонов и того, как именно задавали промпты. Вывод уровня «можно масштабировать на архивы и сделать это дёшево» — логический скачок.
огромные архивы исторических документов, веками ждавших исследователей, теперь можно обрабатывать автоматически
Это самый слабый вывод. Даже если конкретно здесь гипотеза правдоподобна, это не демонстрирует главного: валидации на массиве текстов, оценки ошибок, ложных срабатываний, устойчивости к качеству сканов, разным почеркам, языкам, сокращениям и так далее.
Больше похоже на рекламный слоган, чем на вывод из эксперимента.
GDELT
Наконец, важно проговорить возможный конфликт интересов.
Организация GDELT сама пишет у себя на сайте: Supported by Google Jigsaw, а автор поста публично позиционирует себя как Google Developer Expert и до этого много писал про пользу ИИ от Google. Это не означает, что всё проплачено. Ну или подтверждений у меня нет. Но это в первую очередь нужно рассматривать как демку возможностей Gemini из близкого к экосистеме Google источника, а не как независимую валидацию результата историками.
В этой позиции Google выступает в роли догоняющей. У OpenAI есть схожий проект OpenAI for Science. Недавно по микроблогам бегал какой-то физик, утверждавший, что ChatGPT 5 Pro ему решил какие-то вычисления за полчаса, хотя это занимало дни, помните его? Он член OpenAI for Science, и его заинтересованность в таких выводах очевидна.
Думаю, Google тоже активно пытается продвигать собственные ИИ-решения как важный инструмент для учёных. Ситуация похожая: связанный с некоей компанией учёный публикует что-то, где нахваливает качество работы продукта компании. Данный пример лично я склонен считать эффективными пиар-усилиями, а не реальным прорывом.
Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.
Зачем вас поддерживать, если вы двух фактов вместе сложить не можете, а просто транслируете чужую повестку? Вы же вроде новости читаете, и можете сделать понятный вывод. Где ваша «творческая сторона»?
Кармен встречается с Рико в школе, но после поступления на пилота бросает Джонни по видеозвонку и дальше встречается со своим наставником.
К Рико проявляет огромный интерес Флорес: она буквально переводится туда же, где служит он. Поскольку с Кармен у Джонни не наладилось, он переключается на Диззи.
В конечном итоге:
Диззи погибает в бою.
Зандеру высасывают мозги.
В конце фильма Джонни и Кармен воссоединяются. Казалось бы, хэппи энд, они наконец-то будут счастливы вместе, Рико получил ту девушку, о которой мечтал. Или нет?
Вполне очевидно, что Кармен немедленно бросит Рико, когда на горизонте появится кто-нибудь поинтереснее. Её чувства к нему уже не прошли самого базового испытания отдалённостью. Это человеческая трагедия, аккуратно замаскированная под счастливый конец: Джонни опять остаётся один.
Этот комментарий и прошлая статья на эту тему — всё, что могу изложить в виде правил. Если много читать ответы от больших языковых моделей, то постепенно получается нутром распознавать этот характерный стиль самых дешёвых из них. Это вкус, который нужно вырабатывать.
Всё заключается именно в объёме каждой из характеристик:
Конкретная мера высокой грамотности письма в комбинации с неожиданными конструкциями;
Тщательно подобранные синонимы для избегания повторов, но когда это семантически обосновано, повторы слов есть;
Предсказуемость размышлений;
Характерный темп речи при выборе размера предложений;
В русском языке — любовь к кавычкам при малейшей степени переносного смысла, будто это максимально литературный текст;
Любовь к тире и скобкам;
Изобретательные, но ненужные сравнения;
«Это не X. Это Y»;
Стремление подводить итоги.
Не всегда распознать легко, но «машинность» текста тем выше, чем дешевле использованная языковая модель. Что удивительно, обычно никто не удосуживается копипастить ответы из ChatGPT 5.2 Pro или хотя бы платной 5.2 Thinking.
Что ещё более удивительно, многие зачем-то пишут собственный текст, скармливают его в ChatGPT, чтобы тот изрыгнул эту прилизанную под машинность склизкую массу. Зачем так делать — вообще за гранью понимания. Основная проблема ведь не в том, что кто-то проявил недостаточно усилий, проблема в том, что читать машинный текст неинтересно.
Кто проводил анализ? Кто писал текст? Статья похожа на сгененированную.
О каком расширении идёт речь? Ссылок на него нет. Вообще, под похожими именами распространяются как минимум два расширения. Если начинаю искать, то могу с лёгкостью перепутать.
А как он должен был выпустить всё из версии для DOS в 1997 году, если там некая закопирайченная аудиобиблиотека? Буквально это и было указано в ридми:
Выпустил он в 1997 году версию для Linux, там то же и указано:
Насколько я понимаю, полные исходники версии DOS/Watcom + DOS4GW нигде не публиковались.
Более того, некоторые DOS-специфичные файлы (
i_ibm.c,i_ibm_a.asm,planar.asmи так далее) в релизе исходников версии для Linux выкинули.1. Сказочники про бесплатное образование для всех и скорое исчезновение профессии программиста обычно по какой-то необъяснимой случайности либо инвестируют в компании искусственного интеллекта, либо их возглавляют.
2. Пузырь не лопнул, но трещины даёт. Сейчас идут странные разговоры, когда глава Nvidia то вдруг на каком-то созвоне обмолвился про необязательность стомиллиардной сделки c OpenAI, то затем Хуан эмоционально открещивается от сказанного.
3.
Пусть тогда наслаждается, что набежал с криками я, мха-ха-ха!
После прочтения текста сложилось стойкое ощущение, что у меня родители были куда лучше ваших. Они меня не били в детстве, если я внятно выражался и называл вещи своими именами вместо «жёлтого банка» или «красного продуктового магазина».
Нет никаких причин думать, что вас затаскают по судам, если вы положительно или отрицательно отзовётесь про «Уайлдберис» или «Стор-77». Зачем вы сами себя ограничиваете?
Ну не знаю, какие-нибудь 122-клавишные клавиатуры для компьютерных терминалов. А какие ещё производят? Unicomp PC 122?
Думаю, легче купить с переназначаемыми клавишами или взять программируемые геймборды. Только зачем? Почему обычные клавиатуры — неполноценные? У меня на ErgoDox EZ всего 76 переназначаемых клавиш, по 38 на руку, и мне хватает.
Зачем мне косплей человека внутри машинного переводчика?
Нет, не постарался бы.
Такой логикой можно оправдать высокую вероятность пожара от современного выключателя света: ведь настоящая восковая свеча — это открытый огонь, почему проводка не должна искрить?
Конечно, не могу высказать ничего против экспериментов с искусственным интеллектом. Я просто хочу напомнить, что Мэрилин Гроув делала эти зарисовочки, когда отсылала открытки и оставляла записочки своему возлюбленному и будущему мужу Роберто Казали. (Да, это родители тех самых братьев Казали, которые наделали уровней Plutonia Experiment для Final Doom и потом много работали в геймдеве).
В этом вся суть: это было выражение её эмоций, уникальное послание от себя, а не что-то стандартизированное и размноженное. Эта записки она оставляла у него под подушкой и засовывала в карманы одежды как напоминание о своих чувствах. Нейросеть, увы, может повторить только стиль изображений.
Мне казалось, это отдельный форк.
Я не натыкался. Вообще, идея отдать контроль над компьютером или хотя бы научить этому будто всегда витала в воздухе: ReAct [arXiv:2210.03629], Toolformer [arXiv:2302.04761], AutoGPT, BabyAGI, SuperAGI, OpenHands [arXiv:2407.16741] и так далее.
А он родился и вырос в англоязычной среде?
Кстати, а почему мне должно быть не всё равно, что там в английском языке?
yt-dlp -f bestaudio --remux-video opus --embed-thumbnail --convert-thumbnails jpg --add-metadatahttps://www.youtube.com/watch?v=VMWS6LhJYjIДумаю, должно сработать. Добавьте там в конце
--cookies-from-browser Firefox(или какой у вас браузер) при необходимости. Также возможно убрать ненужности (--sponsorblock-remove "music_offtopic,sponsor,selfpromo,interaction,intro,outro,preview,filler").Файловый размер по определению будет меньше, чем у MP3 эквивалентного качества, поскольку Opus 128 Кбит/с — это примерно как MP3 192 Кбит/с, если не 256.
Зачем вы перегоняете в MP3, если Opus (в котором обычно лежат аудиодорожки на YouTube) сегодня поддерживается любым медиапроигрывателем? И битрейт там вполне хороший: для Opus 128 Кбит/с — это порог прозрачности. Лично я всю мобильную аудиобиблиотеку перегнал из лосслесса в Opus.
Ну и зря — языковые модели всегда выражаются однотипно, текст у них построен похоже. В итоге весь Интернет забит текстами одинакового стиля и темпа, у них очень похоже используются знаки препинания и членятся предложения в абзацах, а текст — на абзацы.
Как будто сразу все в мире прочитали «50 приёмов письма» Роя Питера Кларка и решили, что в перечислениях всегда нужно иметь не больше трёх членов. Ну и этот дешёвый приём для создания темпа повествования и выставления интонации, когда длинные предложения из 2–3 основ перемежаются предложениями из одного-двух слов.
При этом это усреднение всех человеческих знаний никогда не звучит естественно, оно идеализированно несовершенно. Примеры:
«Брифинг» вполне себе слово в русском языке.
А вот подстрочник elephant in the room просто не работает.
Если языковая модель описывает техническое устройство чего угодно, то всегда появляется «капот», под которым что-то находится.
Бросается в глаза этот приём.
Предполагаю, что большие языковые модели выравнивали так, что они обожают лепить сравнения везде, в том числе не к месту. Видимо, считается, что так будет красивше.
Кстати, про Джарвиса в тексте очень много.
А ещё в речи БЯМ есть такой приём, как «это не X, это Y». Они его пихают в избытке. Приём настолько частый, что уже реальные люди так начали выражаться непропорционально часто, мне это чуточку осточертело.
Ну вот честно, так люди не пишут:
У меня подобное всегда создаёт отторжение.
ИИ выгоднее использовать для помощи при письме, задавать ему вопросы, требовать искать по источникам и составлять отчёты. Но в конечном тексте всегда должен остаться аромат человека, а не этот леденящий холод машины и отпечаток глупостей из датасетов предобучения.
А запятые могут расставлять сервисы по типу https://orfogrammka.ru/ Никакие БЯМ для проверки орфографии не нужны.
Вы какую-то языковую модель для оформления статьи использовали? В некоторых абзацах темп речи похож.
Вам теперь введение придётся переписывать, потому что за час до публикации вашей статьи проект опять переименовался.
Это вы ещё Виталика Бутерина не видели.
Каких учёных? Имена, учёные степени?
В оригинале тоже расплывчато: «several experts who reviewed the page were unable to discern their meaning and thus their purpose had remained elusive». Что за «несколько экспертов»? О чём вообще речь?
Почему это потом раздуто в факт, будто вся современная историческая наука не может найти объяснения? Не названы никакие имена, просто сказано, что кто-то неизвестный не смог найти объяснений. А у вас написано: «ставили ученых в тупик на протяжении веков».
В оригинале это подано как «highly plausible explanation», то есть это правдоподобная гипотеза, а не разгадка. Тут ИИ предложил интерпретацию, а не тайна разгадана. Нужна проверка специалистом (историком, латинистом), а не этот самоуверенный заголовок.
Звучит как маркетинговая драматизация. В самом посте GDELT видно, что модель переосмысливает чтение цифр и дат, исправляет сама себя и пересобирает объяснение. Можно спорить, считать ли это одной попыткой, но в читательском восприятии «с первой попытки» значит «сразу точно и безошибочно». А этого там нет.
Вообще, пост GDELT — почти полностью просто копирование выдачи Gemini. Тут речь не про опубликованную научную статью, а буквально пост в каком-то блоге, где кто-то скопировал ответ от языковой модели.
Вот это уже просто опасная подмена понятий. В оригинале автор сам в промпте задаёт широкий контекст по датам (условно «между концом XV и XVII вв.»), а ответ модели — общий (обычно указывается «16th or 17th century», про 1500–1550 указывается всего в одном случае) и часто без реальной методики. «Палеографический анализ по чернилам» — это то, что в норме требует источниковедения, сравнительных образцов и ответственности эксперта. Тут этого нет, это лишь уверенно звучащий текст от БЯМ.
Цена запроса по тарифу — не то же самое, что себестоимость разгадки и тем более не гарантия воспроизводимости. В реальности стоимость и точность зависят от настроек, качества изображения, количества прогонов и того, как именно задавали промпты. Вывод уровня «можно масштабировать на архивы и сделать это дёшево» — логический скачок.
Это самый слабый вывод. Даже если конкретно здесь гипотеза правдоподобна, это не демонстрирует главного: валидации на массиве текстов, оценки ошибок, ложных срабатываний, устойчивости к качеству сканов, разным почеркам, языкам, сокращениям и так далее.
Больше похоже на рекламный слоган, чем на вывод из эксперимента.
Наконец, важно проговорить возможный конфликт интересов.
Организация GDELT сама пишет у себя на сайте: Supported by Google Jigsaw, а автор поста публично позиционирует себя как Google Developer Expert и до этого много писал про пользу ИИ от Google. Это не означает, что всё проплачено. Ну или подтверждений у меня нет. Но это в первую очередь нужно рассматривать как демку возможностей Gemini из близкого к экосистеме Google источника, а не как независимую валидацию результата историками.
В этой позиции Google выступает в роли догоняющей. У OpenAI есть схожий проект OpenAI for Science. Недавно по микроблогам бегал какой-то физик, утверждавший, что ChatGPT 5 Pro ему решил какие-то вычисления за полчаса, хотя это занимало дни, помните его? Он член OpenAI for Science, и его заинтересованность в таких выводах очевидна.
Думаю, Google тоже активно пытается продвигать собственные ИИ-решения как важный инструмент для учёных. Ситуация похожая: связанный с некоей компанией учёный публикует что-то, где нахваливает качество работы продукта компании. Данный пример лично я склонен считать эффективными пиар-усилиями, а не реальным прорывом.
Зачем вас поддерживать, если вы двух фактов вместе сложить не можете, а просто транслируете чужую повестку? Вы же вроде новости читаете, и можете сделать понятный вывод. Где ваша «творческая сторона»?
И не только это. Взять, к примеру, отношения между полами. Они тоже внешне развиваются хорошо, но на деле всё заканчивается ужасно.
В фильме Пауля Верхувена показаны два любовных треугольника:
Рядовой Джонни Рико, лейтенант Кармен Ибаньес, лейтенант Зандер Баркалоу.
Лейтенант Кармен Ибаньес, рядовой Джонни Рико, рядовой Диззи Флорес.
Кармен встречается с Рико в школе, но после поступления на пилота бросает Джонни по видеозвонку и дальше встречается со своим наставником.
К Рико проявляет огромный интерес Флорес: она буквально переводится туда же, где служит он. Поскольку с Кармен у Джонни не наладилось, он переключается на Диззи.
В конечном итоге:
Диззи погибает в бою.
Зандеру высасывают мозги.
В конце фильма Джонни и Кармен воссоединяются. Казалось бы, хэппи энд, они наконец-то будут счастливы вместе, Рико получил ту девушку, о которой мечтал. Или нет?
Вполне очевидно, что Кармен немедленно бросит Рико, когда на горизонте появится кто-нибудь поинтереснее. Её чувства к нему уже не прошли самого базового испытания отдалённостью. Это человеческая трагедия, аккуратно замаскированная под счастливый конец: Джонни опять остаётся один.