Сейчас я покажу вам научное объяснение, почему часто в английском вы слышите как спикер проговаривает 1 букву из целого слова, как будто пытаясь убежать вперёд.
В данном случае числительное нужно писать прописью.
Каковы критерии «научности» объяснения? Где они в тексте?
Почему ТАК тяжело слушать нейтивов языка и почему даже супер высокий уровень английского вам не помогает
Где точка на конце предложения?
Зачем «ТАК» заглавными? Есть другие методы: выделить полужирным или курсивом. Или вовсе от этого отказаться, поскольку интонация на «так» падает и без этого.
«Нейтивов языка» — странный жаргонизм, никогда такого не встречал. Звучало бы лучше «носитель языка».
«Супер-высокий» пишется через дефис.
Сама мысль бредовая. Если уровень английского высокий, то тогда не возникнет проблем с восприятием устной речи. Уровень владения языком — это комбинация всех навыков, а не просто умение читать и понимать или переписываться. Можно ли говорить о хорошем уровне владения языком, если нет навыка говорения и восприятия устной речи? Можно ли говорить о здоровье организма, если всего лишь-то гангрена на левой ноге?
Всё дело в Ритме языка - это не просто пара слов. Это лингвистическая концепция информации о которой почти нет на русском языке. Вернее не было до сегодня.
Почему слово «ритме» записано с заглавной?
Во всём тексте у вас вместо тире везде дефисы. Было бы неплохо ставить между словом и тире неразрывный пробел, но вы вряд ли даже слово такое знаете.
Пропущена очень простая запятая в сложноподчинённом предложении.
Не «почти нет на русском языке», а «почти нет в русском языке».
Пропущена запятая после вводного слова «вернее» в третьем предложении.
Что означает предложение «Всё дело в ритме языка - это не просто пара слов»? Так понимаю, тут две мысли:
Всё дело в ритме языка.
Ритм языка — это не просто сочетание двух случайных слов, а реальный научный термин.
У вас это просто не расписано. В любом случае, вторую мысль можно выкинуть — необходимости в ней нет.
Это наш плюс..
Здесь почему-то точки две. Кстати, тут нужно было написать «это для нас плюс».
Ну и так далее, тут вся статья такая. На самом деле у меня вопросы в большинстве своём не по поводу откровенно безалаберного отношения к тексту: отсутствие самых простых запятых в сложносочинённых и сложноподчинённых предложениях, непонятные артефакты письма, запись будто с телефона, смысловые косяки.
Наибольшая проблема в тексте заключается в том, что я банально не понял мысль, которую он пытается донести. Какие конкретно слова произносятся сокращённо? Как это может повлиять на восприятие? Почему это важно?
В видеоролике про «happen» лично я во всех случаях слово услышал. Мне кажется, это вопрос акцентов и привычек в отношении «h». В любом случае, даже если не расслышать, кризиса не случится.
Для всех интересующихся слабыми формами слов в устном английском языке крайне рекомендую вот этот видеоролик. Там приводится много наглядных примеров, где «can» никогда не произносится полностью, а либо превращается в какое-то мычание «ca» или первый звук слова, либо, изредка, вовсе опускается.
При этом видеоролик сразу начинается с примера, где «can't» звучит как «can». То есть сразу понятно, почему критически важно знать про эти слабые формы — иначе реальный смысл воспринятого может оказаться диаметрально противоположным.
А вам, Игорь Поюров, рекомендую идти на завод, а не представляться в Интернете как какой-то «коуч». Вы и по-русски пишете с какими-то страшными ошибками — не надо пытаться кого-то учить английскому. И всё ради того, чтобы писать посты, где рекламируется ваш канал в «Телеграме» с чрезвычайно интересными постами уровня «я не кушал сутки (никогда до этого так не делал, мне очень страшно)».
Что за новая порода статей такая — «хочется обсудить»? Буквально сегодня с утра писал комментарий в статье у ещё одного «обсуждальщика». Он свою статью уже потёр, но в зеркалах осталось. Помню, что на мой комментарий мне автор ответил: «Я хотел предложить тему для обсуждения».
Что с вами обсуждать-то, если вы ни слова про электротехнику не сказали? Какие помехи сигнала добавит интерфейс для подключения и его удалённость на плате? Насколько медленнее, во всех смыслах (скорость подключения, задержка сигнала), даст подключение в какой-нибудь сокет?
За последние лет двадцать тенденция полностью обратная: комбинировать элементы поближе к центральному процессору. Посмотрите, что случилось с северным мостом в нулевых, к примеру — исчез. На М1 и последующих чипах «Эппля» сейчас ОЗУ вообще не расширить, и это далеко не только из-за жадности дядек из Купертино. Началось это тоже не двадцать лет назад. В восьмидесятых–девяностых на материнской плате не было даже контроллера того, что называлось, НЖМД, жёсткого диска. Если был нужён жёсткий диск, покупалась отдельная плата расширения.
Вот и пообсуждали. Казалось бы, у вас есть доступ к чат-боту на большой языковой модели — статью-конспект вы явно писали с ним. Ну вот и обсуждайте с БЯМ что душе угодно.
Не, это неинтересно — это ведь не сборщик мусора писал.
По тексту получается, что писал сборщик мусора: «Google нанял Ханса-Дж. Боэма, известного как „сборщик мусора Боэма“.» В оригинале речь идёт о том, что «Google hired Hans-J. Boehm, of the „Boehm garbage collector“ fame». То есть речь идёт про то, что человек заработал имя на сборщике мусора своего авторства.
Ну и дальше там постоянно признаки наспех выполненного машинного (или просто без любви к тексту и читателю) перевода:
Отсутствие проверки общеупотребительных терминов. В русской литературе его обычно называют «алгоритм Кэхана», но в англоязычной он известен как «Kahan summation algorithm». При дословном переводе получится как в тексте выше — «алгоритм суммирования Кэхана».
Было бы неплохо сделать прим. пер. и привести реальное имя Роберта Картрайта, а не просто его никнейм «Корки», как в оригинале. В любом случае, научные публикации ищутся по официальному имени.
Наконец, текст попросту переведён не до конца. Автор бросил переводить его на одном из твитов, сунул туда ссылку на свой канал в «Телеграме» и опубликовал перевод.
Возможно, случилось так потому, что всякие инструменты комбинации твитов в один длинный тред обрубают эту цепочку именно на этом твите. UnrollNow так делает. Лень ли это автора перевода или банальное головотяпство, но самая интересная часть осталась без перевода.
В 2023 году Дарио заявил, что через 2–3 года человеческий уровень ИИ достигнет. Ну окей, теперь, через полтора года, сказал, что ИИ человеческий уровень через 2–3 года превзойдёт. Что же, даже логично получается: сначала достигнет, потом превзойдёт.
В июле 2023 года Дарио схожим образом заявил на слушаниях в конгрессе США, что он опасается, будто ИИ через два года может быть использован для создания биологического оружия. Осталось шесть месяцев, ждём.
Выеденного яйца его заявления не сто́ят. Тут как с ослом, Ходжой Насреддином и падишахом. Вот только срок в двадцать лет не понадобится. В нынешних условиях достаточно регулярно подогревать внимание к своему стартапу и назначать сроки в пару лет — один чёрт никто ничего не помнит дальше месяца.
Корпорация Contoso является многонациональным бизнесом со штаб-квартирой в Париже. Компания является организацией по производству, продажам и поддержке с более чем 100 000 продуктов.
Это вымышленная компания с глобальной разветвлённой структурой офисов и множеством разнообразных устройств под различными операционными системами. Компания упоминается во многих продуктах «Майкрософта». В данном случае Contoso Deluxe Music Composer — иронично применённый комментатором выше пример названия программы, которая закрылась и не отвечает.
По этому названию гуглится только BSoD.
Нет, ничего такого не гуглится.
Поисковиком вам показывается одна из двух публикаций (1, 2) Рэймонда Чена, где он рассказывает про текст ошибки закрытия программы, который написал Стив Балмер. В тексте публикаций Рэймонд даёт два предупреждения:
Балмер написал не код ошибки, а текст для неё.
Это не blue screen of death, а экран сочетания Ctrl + Alt + Del из Windows 3.1. Сам Чен эксцентрично называет это сообщение blue screen of unhappiness, голубым экраном печали.
Это действительно серьезный вопрос, и я думаю, что нам всем стоит быть более осведомленными о присутствии ботов в онлайн-дискуссиях. Хотя на Хабре они пока редки, в других местах, как вы верно заметили, они могут использоваться для создания ложного общественного мнения. Мы должны быть бдительными и критически оценивать то, что мы читаем. В конечном счете, нам нужно полагаться на собственное суждение и здравый смысл.
Если это сразу не видно, то абзац выше написала большая языковая модель. Понятно, что это самая примитивная Claude Haiku. Однако и в случае моделей получше сразу бросаются в глаза характерные признаки:
Низкая калорийность текста. Ничего нового не сказано, текст повторяет одно и то же. Новую идею БЯМ никогда не толкает.
Общая грамотность при бредовости сказанного.
Попытка закончить комментарий каким-то выводом. Вероятно, это такие артефакты выравнивания для ответа на вопросы. В конце ответа БЯМ всегда норовит подытожить сказанное.
Я в «Твитере» много их не искал, но видел как минимум один случай, когда с аккаунта рассылались комментарии, написанные большой языковой моделью. Это было сразу очевидно по тому, что БЯМ всегда повторяла факты, а не выражала новую мысль.
Думаю, более грамотный промптинг мог бы помочь писать более «человечные» комментарии. Я бы разбил процесс на две стадии а-ля System 1 и System 2:
Планирование ответа. Запланировать личность комментирующего. Возможно, с RAG. Определить, что сказано в комментарии, на который отвечаем. Задать выбор одного из нескольких сценариев комментария: согласиться, спорить, поделиться схожим случаем, пошутить и так далее. Продумать оригинальную мысль для ответа. Написать план. Раскритиковать план. Написать скорректированный план.
Написать комментарий на основе плана из первого пункта.
Однако промптить нормально никто толком не умеет. Думаю, в промпте просто передают контекст комментария и просьбу «напиши следующее сообщение на абзац длины». Примитивные попытки выдавать БЯМ за человека проваливаются, но таких подавляющее большинство.
Тут нужно различать сам режим работы (с его индикацией светодиодом на корпусе) и кнопку.
Режим Turbo — это работа в полной скорости. Этот режим является режимом по умолчанию. Так его описывает какой-нибудь даташит того же 486:
Конкретная реализация кнопки могла различаться от корпуса и материнской платы. Иногда это был замыкающий контакт переключатель, который нажимался и фиксировался в нажатом положении, пока не нажать его повторно. При желании переключатель можно было подключить так, чтобы нажатое положение означало отключение режима Turbo. При отсутствии переключателя полагалось вместо него поставить на материнскую плату джампер.
В других корпусах и системных платах это была обычная кнопка, которая замыкала контакт и отключала режим Turbo, чем замедляла компьютер. Чаще всего получалось так, что кнопка Turbo отключала включённый по умолчанию режим Turbo, а не включала его.
Отказались от кнопки и светодиода действительно в начале эпохи «Пентиумов».
Фуф, прошли почти сутки, и я успокоился достаточно, чтобы ответить без мата.
Мне кажутся глупыми все эти короткие ехидные комментарии уровня «а вот представьте, каким мощным ИИ станет ещё через годик».
Нет ни единой причины думать, что темпы роста усилятся до экспоненциальных или хотя бы сохранятся на уровне текущих. Относительно легко достичь начальных огромных успехов. Как гласит закон Парето, последние 20 процентов даются особенно тяжело.
Пример: в мире не осталось новых датасетов для обучения больших языковых моделей — их уже обучают на всех текстах в Интернете. Сейчас выскребают уже даже транскрипции видеороликов с YouTube.
Предыдущие достижения были возможны за счёт резкого роста доступных вычислительных мощностей. Двадцать лет назад ни о каких вычислениях на видеокартах речи не шло. Сегодня по чистым терафлопсам видеоускорители превосходят центральные процессоры на три порядка.
При этом резкое уменьшение техпроцессов и увеличение тепловыделения всерьёз упираются в физические ограничения, не говоря уже про финансовые. Один завод полупроводников сто́ит как авианосец.
В конкретно данном случае под ИИ понимается чаще всего не машинное обучение, а набор неких алгоритмов, часто повторяющий, с изменениями или без, открытые проекты. Даже если это машинное обучение, победить в голосовании такие продукты не смогли.
Направлению десять лет, но превзойти инженера-профессионала автоматизированный мастеринг не может. И нет никаких причин думать, что вскоре всё резко изменится.
Наконец, посыл у Бенна Джордана в том, что легче и проще поэкспериментировать и научиться, а не отдавать безусловно креативный процесс мастеринга музыки какому-то алгоритму (хотя Matchering 2.0 он хвалит). Каким боком тут лошади и паровые двигатели? Обсуждается творческая деятельность.
Сама ваша аналогия не работает. Паровой двигатель изобрели триста лет назад, и применим оказался далеко не везде. Сравнение с лошадьми некорректно, поскольку из-за низкого КПД парового двигателя ставить его в автомобиль непрактично — получится огромный медленный громкий грузовик. От изобретения парового двигателя до появления более-менее сносных автомобилей с двигателем внутреннего сгорания прошли два века — это примерно 8 поколений людей.
У меня в тексте же указано, что это результат маркетинга последней пары лет. Сейчас аббревиатуру «ИИ» собачат к чему угодно, при этом без повода.
Matchering 2.0 у Бенна Джордана просто участвовал в сравнении. Машинным обучением проект себя не называет, там обычные алгоритмы, описанные на Хабре. Кстати, Джордан рассказывает про Matchering в разделе видеоролика, озаглавленном «AI Mastering». Видимо, семантика ему неинтересна.
Всё, что делает сочетание клавиш «Контроль» + «Ввод» — формирует и отсылает сообщение в личку. То есть во всех остальных случаях никто не мешает написать автору личное сообщение.
Зачем вообще помечать статью как перевод, если структура отличается от оригинала? Тут больше похоже на собственную статью по нескольким источникам, пусть даже с полаганием на один из них.
Белая кайма вокруг намекает. На втором снимке - блики воды размыты. Для фотошопа это нормально, для ретуши тонкой кисточкой - невозможно.
Вы эксперт по программе «Фотошоп» компании «Адоб»? Вы эксперт в ретуши в доцифровую эпоху? На основании чего вы таким безапелляционным тоном делаете настолько категоричные утверждения?
невооруженным глазом видно
В упор ничего не вижу. Абсолютно не видно.
чувак, которого якобы отменили, прифотошоплен
Вот первая страница газеты «Правда» от 30 апреля 1937 года. Там именно эта фотография с Ежовым.
Модель доступна, можно ознакомиться с ее работой лично, можно обратиться к множественным экспертным оценкам.
Механизм работы модели показывают не до конца. o1-preview — самый закрытый продукт OpenAI. Токены размышления скрыты, и за попытку их исследовать по почте прилетает угроза получить бан аккаунта. Число запросов ограничено 50 в сутки (изначально было 50 в неделю). Тяжело оценить детально, насколько хорошо идут размышления.
Но речь не про это. Я говорю о том, что пока что нет причин думать, что вот такими мелкими нововведениями когда-то будет достигнут универсальный ИИ. По моим ощущениям, сообщество в реальном использовании разобралось, что o1-preview именно чуть-чуть точнее отвечает. Как показывают примеры (хотя бы тот с заменой условия задачи) размышлять и планировать модель всё равно не умеет. А именно размышлять и планировать должен универсальный ИИ.
Но также я думаю, что попытки изобрести универсальный сильный ИИ продолжат вот такими надстройками над языковыми моделями. И ничего с этими тенденциями поделать нельзя.
Почему некорректно? Фонд Gorilla Foundation тоже собирал деньги, пусть и на порядки меньше, миллионами долларов.
Смысл в том, что мне модель o1 не нравится. Думаю, она даст лишь небольшой, инкрементальный рост точности ответов. И никакого универсального искусственного интеллекта усилением больших языковых моделей получиться не может.
Однако также я считаю, что моё мнение роли не играет, поскольку мир бывает несправедлив, и модель принесёт компании OpenAI успех. Просто иллюстрация этой несправедливости чуточку растянулась.
В данном случае числительное нужно писать прописью.
Каковы критерии «научности» объяснения? Где они в тексте?
Где точка на конце предложения?
Зачем «ТАК» заглавными? Есть другие методы: выделить полужирным или курсивом. Или вовсе от этого отказаться, поскольку интонация на «так» падает и без этого.
«Нейтивов языка» — странный жаргонизм, никогда такого не встречал. Звучало бы лучше «носитель языка».
«Супер-высокий» пишется через дефис.
Сама мысль бредовая. Если уровень английского высокий, то тогда не возникнет проблем с восприятием устной речи. Уровень владения языком — это комбинация всех навыков, а не просто умение читать и понимать или переписываться. Можно ли говорить о хорошем уровне владения языком, если нет навыка говорения и восприятия устной речи? Можно ли говорить о здоровье организма, если всего лишь-то гангрена на левой ноге?
Почему слово «ритме» записано с заглавной?
Во всём тексте у вас вместо тире везде дефисы. Было бы неплохо ставить между словом и тире неразрывный пробел, но вы вряд ли даже слово такое знаете.
Пропущена очень простая запятая в сложноподчинённом предложении.
Не «почти нет на русском языке», а «почти нет в русском языке».
Пропущена запятая после вводного слова «вернее» в третьем предложении.
Что означает предложение «Всё дело в ритме языка - это не просто пара слов»? Так понимаю, тут две мысли:
Всё дело в ритме языка.
Ритм языка — это не просто сочетание двух случайных слов, а реальный научный термин.
У вас это просто не расписано. В любом случае, вторую мысль можно выкинуть — необходимости в ней нет.
Здесь почему-то точки две. Кстати, тут нужно было написать «это для нас плюс».
Ну и так далее, тут вся статья такая. На самом деле у меня вопросы в большинстве своём не по поводу откровенно безалаберного отношения к тексту: отсутствие самых простых запятых в сложносочинённых и сложноподчинённых предложениях, непонятные артефакты письма, запись будто с телефона, смысловые косяки.
Наибольшая проблема в тексте заключается в том, что я банально не понял мысль, которую он пытается донести. Какие конкретно слова произносятся сокращённо? Как это может повлиять на восприятие? Почему это важно?
В видеоролике про «happen» лично я во всех случаях слово услышал. Мне кажется, это вопрос акцентов и привычек в отношении «h». В любом случае, даже если не расслышать, кризиса не случится.
Для всех интересующихся слабыми формами слов в устном английском языке крайне рекомендую вот этот видеоролик. Там приводится много наглядных примеров, где «can» никогда не произносится полностью, а либо превращается в какое-то мычание «ca» или первый звук слова, либо, изредка, вовсе опускается.
При этом видеоролик сразу начинается с примера, где «can't» звучит как «can». То есть сразу понятно, почему критически важно знать про эти слабые формы — иначе реальный смысл воспринятого может оказаться диаметрально противоположным.
А вам, Игорь Поюров, рекомендую идти на завод, а не представляться в Интернете как какой-то «коуч». Вы и по-русски пишете с какими-то страшными ошибками — не надо пытаться кого-то учить английскому. И всё ради того, чтобы писать посты, где рекламируется ваш канал в «Телеграме» с чрезвычайно интересными постами уровня «я не кушал сутки (никогда до этого так не делал, мне очень страшно)».
Что за новая порода статей такая — «хочется обсудить»? Буквально сегодня с утра писал комментарий в статье у ещё одного «обсуждальщика». Он свою статью уже потёр, но в зеркалах осталось. Помню, что на мой комментарий мне автор ответил: «Я хотел предложить тему для обсуждения».
Что с вами обсуждать-то, если вы ни слова про электротехнику не сказали? Какие помехи сигнала добавит интерфейс для подключения и его удалённость на плате? Насколько медленнее, во всех смыслах (скорость подключения, задержка сигнала), даст подключение в какой-нибудь сокет?
За последние лет двадцать тенденция полностью обратная: комбинировать элементы поближе к центральному процессору. Посмотрите, что случилось с северным мостом в нулевых, к примеру — исчез. На М1 и последующих чипах «Эппля» сейчас ОЗУ вообще не расширить, и это далеко не только из-за жадности дядек из Купертино. Началось это тоже не двадцать лет назад. В восьмидесятых–девяностых на материнской плате не было даже контроллера того, что называлось, НЖМД, жёсткого диска. Если был нужён жёсткий диск, покупалась отдельная плата расширения.
Вот и пообсуждали. Казалось бы, у вас есть доступ к чат-боту на большой языковой модели — статью-конспект вы явно писали с ним. Ну вот и обсуждайте с БЯМ что душе угодно.
Не, это неинтересно — это ведь не сборщик мусора писал.
По тексту получается, что писал сборщик мусора: «Google нанял Ханса-Дж. Боэма, известного как „сборщик мусора Боэма“.» В оригинале речь идёт о том, что «Google hired Hans-J. Boehm, of the „Boehm garbage collector“ fame». То есть речь идёт про то, что человек заработал имя на сборщике мусора своего авторства.
Ну и дальше там постоянно признаки наспех выполненного машинного (или просто без любви к тексту и читателю) перевода:
Отсутствие проверки общеупотребительных терминов. В русской литературе его обычно называют «алгоритм Кэхана», но в англоязычной он известен как «Kahan summation algorithm». При дословном переводе получится как в тексте выше — «алгоритм суммирования Кэхана».
Было бы неплохо сделать прим. пер. и привести реальное имя Роберта Картрайта, а не просто его никнейм «Корки», как в оригинале. В любом случае, научные публикации ищутся по официальному имени.
Наконец, текст попросту переведён не до конца. Автор бросил переводить его на одном из твитов, сунул туда ссылку на свой канал в «Телеграме» и опубликовал перевод.
Возможно, случилось так потому, что всякие инструменты комбинации твитов в один длинный тред обрубают эту цепочку именно на этом твите. UnrollNow так делает. Лень ли это автора перевода или банальное головотяпство, но самая интересная часть осталась без перевода.
В 2023 году Дарио заявил, что через 2–3 года человеческий уровень ИИ достигнет. Ну окей, теперь, через полтора года, сказал, что ИИ человеческий уровень через 2–3 года превзойдёт. Что же, даже логично получается: сначала достигнет, потом превзойдёт.
В июле 2023 года Дарио схожим образом заявил на слушаниях в конгрессе США, что он опасается, будто ИИ через два года может быть использован для создания биологического оружия. Осталось шесть месяцев, ждём.
Выеденного яйца его заявления не сто́ят. Тут как с ослом, Ходжой Насреддином и падишахом. Вот только срок в двадцать лет не понадобится. В нынешних условиях достаточно регулярно подогревать внимание к своему стартапу и назначать сроки в пару лет — один чёрт никто ничего не помнит дальше месяца.
Общие сведения о корпорации Contoso
Это вымышленная компания с глобальной разветвлённой структурой офисов и множеством разнообразных устройств под различными операционными системами. Компания упоминается во многих продуктах «Майкрософта». В данном случае Contoso Deluxe Music Composer — иронично применённый комментатором выше пример названия программы, которая закрылась и не отвечает.
Нет, ничего такого не гуглится.
Поисковиком вам показывается одна из двух публикаций (1, 2) Рэймонда Чена, где он рассказывает про текст ошибки закрытия программы, который написал Стив Балмер. В тексте публикаций Рэймонд даёт два предупреждения:
Балмер написал не код ошибки, а текст для неё.
Это не blue screen of death, а экран сочетания Ctrl + Alt + Del из Windows 3.1. Сам Чен эксцентрично называет это сообщение blue screen of unhappiness, голубым экраном печали.
Это действительно серьезный вопрос, и я думаю, что нам всем стоит быть более осведомленными о присутствии ботов в онлайн-дискуссиях. Хотя на Хабре они пока редки, в других местах, как вы верно заметили, они могут использоваться для создания ложного общественного мнения. Мы должны быть бдительными и критически оценивать то, что мы читаем. В конечном счете, нам нужно полагаться на собственное суждение и здравый смысл.
Если это сразу не видно, то абзац выше написала большая языковая модель. Понятно, что это самая примитивная Claude Haiku. Однако и в случае моделей получше сразу бросаются в глаза характерные признаки:
Низкая калорийность текста. Ничего нового не сказано, текст повторяет одно и то же. Новую идею БЯМ никогда не толкает.
Общая грамотность при бредовости сказанного.
Попытка закончить комментарий каким-то выводом. Вероятно, это такие артефакты выравнивания для ответа на вопросы. В конце ответа БЯМ всегда норовит подытожить сказанное.
Я в «Твитере» много их не искал, но видел как минимум один случай, когда с аккаунта рассылались комментарии, написанные большой языковой моделью. Это было сразу очевидно по тому, что БЯМ всегда повторяла факты, а не выражала новую мысль.
Думаю, более грамотный промптинг мог бы помочь писать более «человечные» комментарии. Я бы разбил процесс на две стадии а-ля System 1 и System 2:
Планирование ответа. Запланировать личность комментирующего. Возможно, с RAG. Определить, что сказано в комментарии, на который отвечаем. Задать выбор одного из нескольких сценариев комментария: согласиться, спорить, поделиться схожим случаем, пошутить и так далее. Продумать оригинальную мысль для ответа. Написать план. Раскритиковать план. Написать скорректированный план.
Написать комментарий на основе плана из первого пункта.
Однако промптить нормально никто толком не умеет. Думаю, в промпте просто передают контекст комментария и просьбу «напиши следующее сообщение на абзац длины». Примитивные попытки выдавать БЯМ за человека проваливаются, но таких подавляющее большинство.
Тут нужно различать сам режим работы (с его индикацией светодиодом на корпусе) и кнопку.
Режим Turbo — это работа в полной скорости. Этот режим является режимом по умолчанию. Так его описывает какой-нибудь даташит того же 486:
Конкретная реализация кнопки могла различаться от корпуса и материнской платы. Иногда это был замыкающий контакт переключатель, который нажимался и фиксировался в нажатом положении, пока не нажать его повторно. При желании переключатель можно было подключить так, чтобы нажатое положение означало отключение режима Turbo. При отсутствии переключателя полагалось вместо него поставить на материнскую плату джампер.
В других корпусах и системных платах это была обычная кнопка, которая замыкала контакт и отключала режим Turbo, чем замедляла компьютер. Чаще всего получалось так, что кнопка Turbo отключала включённый по умолчанию режим Turbo, а не включала его.
Отказались от кнопки и светодиода действительно в начале эпохи «Пентиумов».
— Просто Chat. Убери GPT. Так проще.
Фуф, прошли почти сутки, и я успокоился достаточно, чтобы ответить без мата.
Мне кажутся глупыми все эти короткие ехидные комментарии уровня «а вот представьте, каким мощным ИИ станет ещё через годик».
Нет ни единой причины думать, что темпы роста усилятся до экспоненциальных или хотя бы сохранятся на уровне текущих. Относительно легко достичь начальных огромных успехов. Как гласит закон Парето, последние 20 процентов даются особенно тяжело.
Пример: в мире не осталось новых датасетов для обучения больших языковых моделей — их уже обучают на всех текстах в Интернете. Сейчас выскребают уже даже транскрипции видеороликов с YouTube.
Предыдущие достижения были возможны за счёт резкого роста доступных вычислительных мощностей. Двадцать лет назад ни о каких вычислениях на видеокартах речи не шло. Сегодня по чистым терафлопсам видеоускорители превосходят центральные процессоры на три порядка.
При этом резкое уменьшение техпроцессов и увеличение тепловыделения всерьёз упираются в физические ограничения, не говоря уже про финансовые. Один завод полупроводников сто́ит как авианосец.
В конкретно данном случае под ИИ понимается чаще всего не машинное обучение, а набор неких алгоритмов, часто повторяющий, с изменениями или без, открытые проекты. Даже если это машинное обучение, победить в голосовании такие продукты не смогли.
Направлению десять лет, но превзойти инженера-профессионала автоматизированный мастеринг не может. И нет никаких причин думать, что вскоре всё резко изменится.
Наконец, посыл у Бенна Джордана в том, что легче и проще поэкспериментировать и научиться, а не отдавать безусловно креативный процесс мастеринга музыки какому-то алгоритму (хотя Matchering 2.0 он хвалит). Каким боком тут лошади и паровые двигатели? Обсуждается творческая деятельность.
Сама ваша аналогия не работает. Паровой двигатель изобрели триста лет назад, и применим оказался далеко не везде. Сравнение с лошадьми некорректно, поскольку из-за низкого КПД парового двигателя ставить его в автомобиль непрактично — получится огромный медленный громкий грузовик. От изобретения парового двигателя до появления более-менее сносных автомобилей с двигателем внутреннего сгорания прошли два века — это примерно 8 поколений людей.
У меня в тексте же указано, что это результат маркетинга последней пары лет. Сейчас аббревиатуру «ИИ» собачат к чему угодно, при этом без повода.
Matchering 2.0 у Бенна Джордана просто участвовал в сравнении. Машинным обучением проект себя не называет, там обычные алгоритмы, описанные на Хабре. Кстати, Джордан рассказывает про Matchering в разделе видеоролика, озаглавленном «AI Mastering». Видимо, семантика ему неинтересна.
Всё, что делает сочетание клавиш «Контроль» + «Ввод» — формирует и отсылает сообщение в личку. То есть во всех остальных случаях никто не мешает написать автору личное сообщение.
А в оригинале тоже было столько ссылок на vc.ru?
Зачем вообще помечать статью как перевод, если структура отличается от оригинала? Тут больше похоже на собственную статью по нескольким источникам, пусть даже с полаганием на один из них.
Это коллаж издания Information, а не реальный рекламный щит. Там и телефон с «киношным» префиксом 555.
Не вижу признаков машинной генерации. Просто текст частично устарел на 19–23 месяца.
Кстати, ChatGPT открылся не на GPT-3, а с зафайнтюненной моделью из серии GPT-3.5 под капотом.
Вы эксперт по программе «Фотошоп» компании «Адоб»? Вы эксперт в ретуши в доцифровую эпоху? На основании чего вы таким безапелляционным тоном делаете настолько категоричные утверждения?
В упор ничего не вижу. Абсолютно не видно.
Вот первая страница газеты «Правда» от 30 апреля 1937 года. Там именно эта фотография с Ежовым.
https://habrastorage.org/webt/r1/90/wv/r190wvrm0hkc7ffw1typpfgqjyk.jpeg
В опалу Ежов попал только осенью 1938.
Что такое соглашения Артемиды? С какими африканскими странами этот договор США уже подписали?
Механизм работы модели показывают не до конца.
o1-preview— самый закрытый продукт OpenAI. Токены размышления скрыты, и за попытку их исследовать по почте прилетает угроза получить бан аккаунта. Число запросов ограничено 50 в сутки (изначально было 50 в неделю). Тяжело оценить детально, насколько хорошо идут размышления.Но речь не про это. Я говорю о том, что пока что нет причин думать, что вот такими мелкими нововведениями когда-то будет достигнут универсальный ИИ. По моим ощущениям, сообщество в реальном использовании разобралось, что
o1-previewименно чуть-чуть точнее отвечает. Как показывают примеры (хотя бы тот с заменой условия задачи) размышлять и планировать модель всё равно не умеет. А именно размышлять и планировать должен универсальный ИИ.Но также я думаю, что попытки изобрести универсальный сильный ИИ продолжат вот такими надстройками над языковыми моделями. И ничего с этими тенденциями поделать нельзя.
Почему некорректно? Фонд Gorilla Foundation тоже собирал деньги, пусть и на порядки меньше, миллионами долларов.
Смысл в том, что мне модель o1 не нравится. Думаю, она даст лишь небольшой, инкрементальный рост точности ответов. И никакого универсального искусственного интеллекта усилением больших языковых моделей получиться не может.
Однако также я считаю, что моё мнение роли не играет, поскольку мир бывает несправедлив, и модель принесёт компании OpenAI успех. Просто иллюстрация этой несправедливости чуточку растянулась.