Comments 151
А теперь представьте себя ну скажем джуном-программистом, попросившим написать функцию чуть сложнее "сортировки пузырьком" (...) в ответ хваленый AI-инструмент, хорошо подумав, выдает некий результат, который вы с полпинка не можете сами оценить.
юнит-тесты для этого придуманы.
которые тоже AI будет писать
Пишем юнит тесты на юнит тесты в 10 кругов, если ВСЁ запускается - то верим
Когда говорят про юнит-тесты, но забывают интеграционные, каждый раз эту байку вспоминаю (вольная интерпретация)
Заходит тестировщик в бар. Забегает. Заползает. Заказывает кружку пива. Заказывает 0 кружек пива. Заказывает 999999999 кружек пива. Заказывает -1 кружку пива. Заказывает ФАОЛФВОЫЛ.
Тут заходит реальный пользователь. Спрашивает, где здесь туалет. Бар сгорает в адском пламени, убивая всех вокруг.
Если она сначала написала код, что корабль утонет, то и юнит тесты она напишет, и честно проверит, что корабль утонет.
Вы зачем-то исходите из заведомо идиотской предпосылки. Это примерно то же самое, что поручать код-ревью тому же, кто этот код и написал. Если в команде процессы настроены таким образом, тимлида надо гнать в шею, а не ныть по поводу ущербности нейросетей. Как говорится, дай дураку ...й стеклянный -- он и его разобъёт и руки порежет.
недавно думал об этом, мы приходим к своего рода "демографическому кресту", сложность доступных инструментов растёт, а средний интеллект их пользователей падает.
Там даже не в интеллекте пользователей дело.
Получая информацию, любезно предоставленную AI (годы жизни Крылова, формула метана, технология производства картона) люди, не обладавшие этим знанием раньше, не смогут отделить реальность от галлюцинаций.
И посмотреть в Википедии не смогут (статья после обработки AI может нести буквально любую информацию), и в Гугле поискать (результаты поиска с помощью AI по текстам, сгенеренным AI).
Мир, в котором настоящая информация останется только в печатных изданиях докомпьютерной эры, потому что любая оцифровка (с помощью AI) потенциально может стать точкой внесения "улучшений".
Интересно может получится...
Так уже сейчас работает медицина в сложных случаях, в результате несогласованного лечения несколькими специалистами в своих областях получаем инвалида, безо всякого искусственного интеллекта. Ну и можно вспомнить совсем старую историю про Аристотеля и восемь ног у мухи.
Да в принципе мало что меняется. Человеки становятся все более узко-специализироваными и меньше понимают даже в смежных областях, не говоря уж о дальних. И приходится верить на слово специалистам. Теперь еще и АИ.
Я не врач, не автомеханик, не экономист - в этих вопросах приходится полагаться на узких спецов, даже поверхностно зная основы этих сфер. Эрудиция уже не помогает.
Даже в своей сфере приходится консультироваться с теми, кто глубже знает конкретную тему.
Такова цена цивилизации - все усложняется, начинаешь больше зависеть от сторонних источников информации.
кстати, грок выдал вот такое:Да, я знаю это стихотворение. Вот оно полностью:У попа была собака,
Он её любил.
Она съела кусок мяса,
Поп её убил.
Это короткое стихотворение часто используется в шутку или для иллюстрации абсурдной ситуации.
MSCopilot тоже адекватно ответил:Да, это известное русское народное стихотворение. Оно начинается так:"У попа была собака, он её любил. Она съела кусок мяса, он её убил."Это стихотворение часто используется как примердетской считалочки. Ты хочешь узнать что-то конкретное о нём?
Да, грок тоже проверял, он знает
Но это я знаю, что он знает, а если я спрошу у него то, что я не знаю - как я узнаю, знает он или нет? Реальный ответ, или "это классическое произведение, напечатанное Бетховеном на компьютере на сессии в МГИМО"?
Вот в чем проблема...
С другой стороны, ИИ то не один существует - опросить топ существующих - те ответы что совпадают у разных ИИ с высокой долей вероятности не придуманы, а с реального источника.
В квантовых вычислительных технологиях та же проблема, есть шум, который накапливается и инженеры тратили колоссальные усилия по борьбе с ним. Это не приговор, в итоге победили, google выпустила новый квантовый процессор, который способен уменьшать ошибки по мере роста числа кубитов на нём. Подобный прорыв тоже будет и для LLM. Как видно частота и величина ошибок падает с ростом параметров модели. Так же растёт и параметр "самокритики", когда модель может чесно признаться что не уверена в чём-то.
LLM улучшаются благодаря прорывам в структуре сети (software), росту параметров (улучшения запоминающей способности, уменьшение ошибок и галлюцинаций), увеличением времени обучения, особенно за пределами достижения минимальных ошибок предсказания токенов (гроккинг).
Предсказываю наступление такого момента в развитии LLM, когда ошибки в ответах и во внутреннем представлении мира в итоге настолько уменьшатся, что ей просто будут пренебрегать, как статистически незначительной. Например когда автопилот согласно статистике будет совершать меньше аварий относительно человеческого вождения, уже можно будет говорить о пользе и превосходстве ИИ над человеком конкретно в этой области. Хотя аварии при это могут продолжать происходить, но это будет приемлемо для людей.
Так и сравнивая с людьми. Например последняя модель OpenAI - o3 уже в некоторых сферах превосходит людей специалистов с научными степенями. Когда будет подавляющее превосходство LLM над людьми во всех сферах, наверное сообщат, что AGI достигнуто. Хотя могут быть очень редкие и незначительные неточности в ответах.
Я считаю, что достичь полного искоренения галлюцинаций удастся когда квантовые чипы достингут продвинутого уровня развития и масштаба, позволяющего как обучать LLM с их помощью практически мгновенно на всём датасете, так и запускать на них же. Получим тогда максимально возможные показатели производительности, благодаря особенностям квантовых вычислений. Ведь мы еще так и не увидели на что LLM способны, просто изза того, что обучение сейчас это поиск писчинки во вселенной, или попытка хоть как то к ней приблизится, бросая на это огромные вычислительные мощности классических процессоров методом перебора.
В некоторых сферах специалисты с учеными степенями уверенно врут не хуже сивого мерина, соответственно, AI может превосходить этих специалистов по степени уверенного вранья
Подобный прорыв тоже будет и для LLM.
С чего бы это дальнейшее учовершенствование Т9 вдруг приведет к какому-то прорыву? Прорыву в чем? LLM по определению никогда не станет чем-то бо́льшим автодополнения.
Как видно частота и величина ошибок падает с ростом параметров модели.
Откуда это видно? А главное, сюда бы доказательство того, что первая производная не собирается менять знак на бо́льших количествах параметров. Даже жалко, что его нет, да и быть не может.
Так же растёт и параметр «самокритики», когда модель может чесно признаться что не уверена в чём-то.
А это вы просто сами придумали.
LLM по определению никогда не станет чем-то бо́льшим автодополнения.
Очень смелое утверждение. Особенно учитывая что его уже сейчас используют очень разными способами. Например для генерации идей в науке.
Дык в поисках неожиданных мелодик Гайдн запускал на фортепиано кота, а потом вычленял связку нот, которая становилась основой очередного великого струнного (sic!) квартета или оратории.
Внимание вопрос: сколько ораторий, струнных квартетов, или хотя бы симфоний написал собственно кот Гайдна?
Никудышные графоманы так же точно ищут следующую строку при помощи словаря рифм, ну а теперь — LLM.
Это автодополнение, по определению, было таковым, таковым навсегда и останется. Говнокодеры даже хвастаются, что им удается рутину ускорить при помощи LLM, но это говорит только об их общем убогом уровне профессионализма, а не о силе LLM.
Внимание вопрос: сколько ораторий, струнных квартетов, или хотя бы симфоний написал собственно кот Гайдна?
А у него была дверка?
Это автодополнение, по определению, было таковым, таковым навсегда и останется.
Нет, это не автодополнение. По крайней мере моему автодополнению точно нельзя написать вопрос и получить ответ. Причём в большинстве случаев вполне себе адекватный и полезный ответ.
адекватный и полезный ответ
Кому и кобыла — невеста.
Кроме фактических данных (сенсация: в поисковиках появились т. н. «колдунщики» примерно 20 лет назад, когда про LLM слышали только Хинтон с Лекуном — так вот они умели отвечать на вопрос «какая сейчас погода в Мельбурне», или «сколько евро сейчас стоит доллар»!) — LLM ничего не может, а если вам кажется, что может — ну так и моей бабушке казалось, что я — фокусник, когда я ей рассчитывал и распечатывал графики приема лекарств.
Почитайте, хотя бы, как LLM устроена, прежде чем пытаться опровергать абсолютный тезис «это автодополнение».
Кому и кобыла — невеста.
Я бы сказал что то, что пишет chatgpt, в большинстве случаев не менее адекватно чем то, что пишите здесь вы.
Почитайте, хотя бы, как LLM устроена, прежде чем пытаться опровергать абсолютный тезис «это автодополнение».
Возможно вам самому сначала стоит почитать как устроен chatgpt, как устроено автодополнение и как устроен человеческий мозг...
Я, будучи полным профаном в DIY цифровой электронике, попросил ChatGPT 4o спроектировать мне умный power switch для автоматизации домашней сети, причём это было сугубо кастомное решение, иначе купил бы готовое.
И он выдал вполне работоспособный рецепт, вплоть до BOM'а с конкретной номенклатурой деталей. Человек, который это решение проверял, смог только в одном месте немного упростить предложенную схему.
В другой раз я попросил уже ChatGPT o1 отрецензировать несколько моих sci-fi рассказов и одну незавершённую повесть в жанре фэнтези на предмет наличия сюжетных дыр и противоречий, убедительности мотивации и поступков персонажей и так далее -- и, уже имея на руках несколько таких рецензий, написанных людьми, я обнаружил, что он не только рецензирует на высоком уровне но ещё и даёт полезные советы по улучшению восприятия нарратива читателями.
В обоих случаях, как бы широк ни был корпус текстов, на которых тренировали модель, эти ситуации там встречаться никак не могли. Следовательно, мы имеем дело с чем-то таким, что выходит за пределы чисто статистической языковой модели (то, что вы называете автодополнением) и вплотную подбирается к понятию творчества.
уже имея на руках несколько таких рецензий, написанных людьми,
Какими людьми? Сент-Бёвом и Мэтью Арнольдом?
я обнаружил, что он не только рецензирует на высоком уровне но ещё и даёт полезные советы
Дык и программисты, которым оно помогает, существуют.
Следовательно, мы имеем дело с чем-то таким, что выходит за пределы чисто статистической языковой модели […]
Ээээ… Этот силлогизм требует доказательства. В 2001 году у меня был волшебный телефон SonyJ7 (ничего лучше в тех пор мне в руках так подержать и не удалось), в нем было автодополнение, и оно умудрялось по «До» (начало фразы «До какой станции мне ехать?») — угадывать «Дорогая Наташа!» хотя ни одной знакомой Наташи у меня не было, и, следовательно, видеть это словосочетание он не мог ну никак.
Удобно вам пользоваться этой штукой? — Да замечательно, я же не отговариваю. Подбирается ли оно к творчеству? — По моим стандартам и моему определению слова «творчество» — нет, и никогда не подберется, потому что сам подход порочен (и да, является по сути автодополнением с генерацией). Хорошо ли оно справляется с автодополнением и генерацией? — Вполне. Будет ли справляться лучше? — Разве что незначительно, потому что эрудиция отличается от разума так же сильно, как двухпудовая гиря от кастета: тяжелее, но в драке бесполезна.
Какими людьми? Сент-Бёвом и Мэтью Арнольдом?
А кроме них, литературных критиков в мире не существует и никогда не существовало?
Смотрите сюда:
https://www.critiquecircle.com/
И там и там обитают как новички в писательском деле, так и состоявшиеся, матёрые писатели — признанные, публикующиеся и имеющие коммерческий успех.
Ну и да, полезность и глубину проработки рецензии я вполне могу оценить сам.
Дык и программисты, которым оно помогает, существуют.
Вы понимаете, чем принципиально отличается программный код от текста художественной литературы? Похоже, что не понимаете.
Этот силлогизм требует доказательства.
Я сочту достаточно убедительным опровержением, если вы хотя бы в общих чертах сможете пояснить, как вероятностная языковая модель со сколь угодно большим количеством параметров может рецензировать ранее ей не встречавшийся текст художественного произведения на уровне анализа сюжета.
в нем было автодополнение, и оно умудрялось по «До» (начало фразы «До какой станции мне ехать?») — угадывать «Дорогая Наташа!» хотя ни одной знакомой Наташи у меня не было, и, следовательно, видеть это словосочетание он не мог ну никак.
В телефонных Т9 использовался предзагруженный словарь. И не все реалзации T9 умели учиться на юзерском вводе.
и моему определению слова «творчество»
А какое у вас определение?
эрудиция отличается от разума так же сильно, как двухпудовая гиря от кастета: тяжелее, но в драке бесполезна.
Вы можете пояснить разницу без привлечения аналогий?
Вы понимаете, чем принципиально отличается программный код от текста художественной литературы? Похоже, что не понимаете.
Похоже, да. Потому что в принципе — ничем. Я однажды одной прекрасной даме написал довольно длинное стихотворение, на полностью валидном эрланге.
рецензировать ранее ей не встречавшийся текст художественного произведения на уровне анализа сюжета
Не помню кто, кажется Уайлд, говорил, что сюжетов во всей мировой литературе всего три, а остальное — эпитеты. Ладно.
Поясняю в общих чертах: сначала ваш уникальный сюжет векторизуется во что-то типа «протагонист, два антагониста, сомнения, измена, покой, раскаяние, смерть» (пытливый читатель тут может кроме «Анны Карениной» угадать еще примерно стопиццот романов). Потом каждый кусок дальше дробится, строятся эмбеддинги, находятся нестыковки в соответствии с общепринятыми тенденциями, почерпнутыми из библиотеки.
Кстати, а как компилятор справляется с кодом, который он никогда до этого не видел? Скажете, строгий синтаксис и 42 ключевых слова? — Дык в литературе все точно так же.
какое у вас определение?
Это очень опасная тропинка, потому что все неосязаемые понятия, типа «творчество», «чувство» и тому подобные — очень субъективны, и мы, как человечество, пока не научились облекать субъективные ощущения в слова, понятные другому (мы даже про восприятие цвета не совсем понимаем, совпадают ли ощущения двух людей при взгляде на излучение с длиной волны 420 нм). Здесь подойдет «творчество — это создание новых артефактов, вызывающих появление новых образов и мыслей при восприятии другими людьми». «Сто лет одиночества» порождает мириады мыслей, а условный Быков — ноль. У вас может быть по-другому, конечно.
можете пояснить разницу без привлечения аналогий?
Нет, для этого существует такая штуковина, как толковый словарь русского языка.
Похоже, да. Потому что в принципе — ничем.
У программного кода значительно сильнее формализована грамматика, что делает написание валидного кода проще, чем осмысленного художественного текста.
Поясняю в общих чертах: сначала ваш уникальный сюжет векторизуется во что-то типа
Стоп-стоп, это уже жульничество. То, что вы описываете — не LLM, а экспертно-аналитическая система. Причём, специализированная конкретно под анализ худлита. Скорми ей учебную программу курса по бизнес-аналитике и попроси выдать правильные ответы к тесту -- она не справится, т.к. будет искать там антагонистов и протагонистов, как вы описали. А ChatGPT справится, я проверял.
Такое было и раньше, просто раньше для этого между произведением и машиной требовался человек, который переводил человекочитаемый текст в машиночитаемые фреймы знаний.
И тот факт, что сейчас уже для этого человек не требуется, а машина способна понимать и выполнять инструкции по преобразованию, написанные на человеческом же языке -- я и считаю качественным изменением ситуации, которая «выходит за пределы языковой модели» и см. выше по тексту.
Reasoning models, которую OpenAI недавно выкатили, например, может вполне аргументированно отстаивать заведомо некорректную точку зрения, если попросить об этом.
Кстати, а как компилятор справляется с кодом, который он никогда до этого не видел? Скажете, строгий синтаксис и 42 ключевых слова? — Дык в литературе все точно так же.
Да, именно так я и скажу. Программный код по ряду строгих формальных правил переводится в AST взаимно-однозначным образом.
Тогда как живой литературный язык, несмотря на все усилия учёных-филологов не впишется в формалистику даже если собрать все правила, какие только известны, см. здесь (много мата, но это не о нём).
тому подобные — очень субъективны
Ну понятно, то есть вам просто кажется, что это не творчество. Как и мне кажется, что это близко к творчеству.
Здесь подойдет «творчество — это создание новых артефактов, вызывающих появление новых образов и мыслей при восприятии другими людьми»
...
У вас может быть по-другому, конечно.
У меня -- да. Под ваше определение подходит кучка под дверью квартиры соседа, кстати.
Я же склоняюсь к мысли, что это что-то вроде создания производных произведений (сорри за тавтологию), апеллирующих к эстетическому вкусу зрителя\читателя\etc.
Нет, для этого существует такая штуковина, как толковый словарь русского языка.
Ну я попробую без словаря. Эрудиция — это набор приобретённых знаний о фактах, явлениях и пр. Тогда как разум это, отчасти, о том, как их систематизировать, выявлять заранее неизвестные закономерности, взаимоотношения и делать выводы, обладающие прогностической силой.
Обратите внимание, что я не утверждаю, что сегодняшние LLM разумны. Я утверждаю, что они пока что пересекают границу качественного перехода между «оценить какое слово наиболее вероятно будет следующим в предложении на основании тренировок по корпусу текстов» и умением именно что делать выводы, пусть и пока что не на таком же уровне, как мясные аналоги.
написание валидного кода проще
Так точно, поэтому мы и ждали газиллионов параметров, чтобы сделать количественный скачок от «двинул топором начальника штаба» к осмысленному тексту (первое — попытка перевода на русский (1988 примерно года) ассемблерной инструкции `mov ax, dx`).
это уже жульничество
Отнюдь. Почитайте, как LLM работают, я привел пример векторизации, которая случится в данном конкретном случае.
Программный код по ряду строгих формальных правил переводится в AST взаимно-однозначным образом.
Тогда как живой литературный язык, несмотря на все усилия учёных-филологов не впишется в формалистику даже если собрать все правила, какие только известны […]
Оффтопик: Альфина прекрасна, да.
По теме: я ковырялся в свое время с нечеткими грамматиками, и пришел к любопытному результату. Без потери общности можно построить AST для художественного текста, просто складывая «непонятное» в специальные ноды. И, даже если их потом просто выбрасывать, перевод язык→AST→AST→язык получается вполне читаемым. Так примерно работает мозг человека, плохо владеющего иностранным языком.
Мне скучно этим заниматься дальше, я показал, что хотел, но на мой взгляд именно такой подход: фундаментальный алгоритмический базис, поверх которого уже накладываются эвристики и обучение без учителя, — будущее ИИ. Но уж никак не LLM.
Под ваше определение подходит кучка под дверью квартиры соседа, кстати.
Да, это называется «инсталляция».
:)
качественного перехода
У нас с вами, в принципе, всего одно разногласие: вы считаете этот переход качественным, а я — количественным. Время рассудит.
del
Да хотя бы если вспомнить мои эксперименты со стихотворением "У попа была собака" - ведь даже более примитивные LLM придумывали что-то похожее на стихи.
И это совершенно точно не прочитанное (бред потому что), а придуманное.
Почему бы им не придумать техническое решение или код?
Другой вопрос, насколько оно бредовое - но на эту тему даже книга есть, одного интересного автора, который предлагал решать задачи изобретения полезных вещей через подобный бредогенератор - какая-то из идей может оказаться прорывной.
Задача «придумать стихотворение» уровня поповской собаки не такая уж и сложная, тут ИМХО и без LLM можно справиться, если есть словарь с рифмами.
Будет, конечно, пакля-жмакля-рвакля, но будет же. Это не показатель.
Почему бы им не придумать техническое решение или код?
Техническое решение, которое не является случайным набором компонентов, а где всё согласовано между собой?
Я ведь уже воплотил тот проект в железе. И он работает. Мне так повезло случайно или всё-таки ChatGPT что-то знает, чего не знаете вы?
Другой вопрос, насколько оно бредовое - но на эту тему даже книга есть
ТРИЗ, что ли?
Ваш аргумент о том, что LLM это "просто автодополнение" неверен в корне. Вы путаете базовый механизм работы (предсказание следующего токена) с возможностями всей системы. Это всё равно что сказать, что человеческий мозг это "просто электрические сигналы" - технически верно, но полностью упускает суть возникающих свойств системы.
Я-то как раз ничего не путаю, а вот у вас, кажется, аргументов кроме «на вопросы я отвечать не буду, а тезисы просто неверны» — попросту нет. Бывает.
Давайте разберем по существу. Вы утверждаете, что LLM это "просто автодополнение", но при этом игнорируете многочисленные примеры, где модели решают задачи, принципиально невозможные для простого автодополнения. DreamingKitten привел конкретный пример с разработкой power switch - система не просто "дополнила текст", а спроектировала работающее техническое решение с подбором компонентов. Когда модель решает математические задачи с пошаговыми рассуждениями или анализирует программный код на ошибки - это явно выходит за рамки статистического предсказания следующего токена. В тестах на логические рассуждения современные модели показывают результаты, сравнимые с человеческими.
Сравнение с T9 некорректно - это действительно было автодополнение на основе словаря. Современные LLM используют сложные механизмы attention и transformer-архитектуру, позволяющие учитывать длинные контексты и строить сложные логические связи.
Если у вас есть конкретные технические аргументы, почему все эти возможности сводятся к "автодополнению" - давайте обсудим их. Пока же я вижу только голословное отрицание очевидных фактов.
Так это давно известный вопрос на который нет ответа. "Если я знаю ответ - зачем у ИИ спрашивать, если я ответ не знаю - как я узнаю что ИИ ответил правильно."
Кстати, то что если ИИ правильно ответил на одну задачу ,абсолютно не значит то, что он ответит правильно на другую похожую.
Если я знаю ответ - зачем у ИИ спрашивать, если я ответ не знаю - как я узнаю что ИИ ответил правильно.
Нужно оценивать на другом уровне абстракции. Условно, если прибыль растёт, значит ИИ отвечает "правильно" - без относительно того, что это значит и сколько он нагаллюционировал.
А если вы спросите у человека, как вы узнаете? В медицине фуфломицины на миллиарды долларов выписываются. Не ясно, в чем тут преимущество человека. Меньше галлюцинирует? Пока да, но люди-то не развиваются (в целом), а ИИ лишь на старте развития.
Так человек человеку рознь. Есть эксперты в областях, а есть хрены с горы. Что интересно, многие люди больше доверяют мнению какого-то чувака из инета, чем специалиста.
может чего и проверяет.
Но мне он вполне уверенно наврал на запрос о наличии несуществующих команд в некоем протоколе. Сначала выдал описание на несуществующий ID от существующего, потом перепутал описания для двух существующих и повторно выдал описание для несуществующего от одного из двух существующих
Гок выдал только первый куплет, заявил что оно полное, заявил что короткое - хотя оно бесконечное.
А кто-нибудь из них упомянул про бесконечную рекурсию?
Но помнит ли еще кто-нибудь о том, что AI, строго говоря, не гарантирует правильности решений?
А что или кто гарантирует? Ну то есть а люди разве это могут гарантировать?
Но ведь как-то живём, работаем, опять же НТП и всё такое.
Люди рассуждают. У человека, кроме подсистемы "кажется" есть подсистема "подумать".
(это правда совсем не ИТ-тема, но тут оно к месту)
Взять, к примеру, детей - на них хорошо бывает видно два разных типа работы мозга:
- одни запоминают материал, хорошо или плохо, потом по запросу выдают ответ, очень быстро, почти не думая: "Волга впадает в Каспийское море", "2*2=4" и так далее. Легко запоминают определения, даты, стихи, и прочее. Минусы: если запомнили неправильно или забыли - ответ будет неверный, "угадайка".
- другие пытаются понять: почему 2*2=4? Потому что 2*2 это 2 раза взять по 2 штуки, то есть 2 + 2, а если сложить 2 + 2 получится 4. Минусы - плохо запоминают то, что нужно "просто запомнить", тратят время на понимание. Зато вопросы где надо думать - подумают и решат, даже если раньше не встречали такого.
В норме у человека работает и то и другое, а вот нейросеть - это как раз первый тип, ассоциативное запоминание.
Ну то есть, если вы вдруг "вспомнили", что Крылов родился в 1901 году, и издал книгу в 1905 - вы сами сообразите, что он не мог сделать это в 4 годика, значит что-то вы помните неправильно, и скорее всего - всё из этого, т.е. по факту не помните ничего про Крылова.
Нейросеть этого "недостатка" лишена, она не контролирует логикой сама себя, принимая решение. Как показалось - так и правильно.
Люди рассуждают...
Это всё очень интересно. Но всё равно люди не гарантируют вам правильности решений.
То есть ИИ может быть выдаёт худшие результаты чем какие-то то там люди. Но гарантий у вас не будет в любом случае.
Ну то есть, если вы вдруг "вспомнили", что Крылов родился в 1901 году, и издал книгу в 1905 - вы сами сообразите, что он не мог сделать это в 4 годика
Я бы сказал что найдётся приличное количество людей, которые не сообразят.
В норме у человека работает и то и другое, а вот нейросеть - это как раз первый тип, ассоциативное запоминание.
Не выдумывайте и не плодите эти устаревшие стереотипы. Современные LLM, особенно крупные, обладают обеими типами мышления. Вы бы давно могли это проверить самостоятельно. Просто первый тип мышления достигается на первых этапах обучения LLM, если его остановить, то она будет не сильно смышлёная, а будет повторять заученную информацию, проявляя слабую мыслительную деятельность. Если продолжать обучать такую LLM, то она значительно улучшается в плане понимания и способности рассуждать. Для примера самая быстрая и самая "маленькая" модель от Anthropic - Haiku 3 работала очень плохо, запиналась при вопросах выше среднего, впадала в циклы повторения одних и тех же слов до бесконечности. Но за n-ое количество месяцев, её продолжали обучать и теперь она обогнала в тестах самую умную на момент её выпуска модель - Opus 3. Этот феномен называется кроккинг, когда модель судя по неизменной минимальной ошибке как будто бы обучилась. Но это просто зубрёжка, и если не прерывать процесс обучения то ошибка уже перестаёт уменьшаться, но зато модель переходит к пониманию смыслов, учится думать, т.е. этот ваш второй уровень осваивает.
Не выдумывайте и не плодите эти устаревшие стереотипы.
Не выдумывайте и не плодите эти новейшие стереотипы. Вы употребляете понятия "мышление", "понимание смыслов", "учится думать" и т.п., которые не формализованы, смысл и механизм работы которых вовсе не ясны. И перспектива как-то не просматривается. Это, конечно, очень романтично звучит, спору нет. Но LLM - это по-прежнему пусть большая, но языковая модель. Много параметров с приписанными им вероятностями, которые и есть результат обучения. К каким параметрам ближе - те и выбираются. Это сложная система. Вы не видите, что происходит под капотом. И результат может вас удивить. До такой степени, что вы заговорите о "смышлёности" или "способности рассуждать". Но сути дела это не меняет. Это всего-лишь предсказательный автомат. К компьютеру привыкли? Привыкните и к этому. Но не нужно раздувать хайп. Если вы застали так называемый "пузырь дот-комов", то аналогию просмотрите с лёгкостью. Но много людей пострадает ни за что.
Нет, вы как раз демонстрируете устаревшее понимание природы LLM. То, что вы описываете - это примитивное представление о них как о простых статистических моделях. Но современные исследования показывают гораздо более сложную картину.
Да, на низком уровне это действительно параметры и вероятности. Но точно так же человеческий мозг на низком уровне - это просто нейроны и синапсы с электрохимическими сигналами. Суть в том, что из этих базовых элементов возникают более сложные паттерны и способности.
Возьмём тот же "пузырь доткомов" который вы упомянули - это совершенно некорректная аналогия. Доткомы были основаны на завышенных ожиданиях от примитивных веб-технологий. А современные LLM демонстрируют вполне реальные достижения - они проходят сложнейшие тесты, решают математические задачи с пошаговыми рассуждениями, пишут работающий программный код, ведут осмысленные дискуссии по сложным темам.
То, что мы не до конца понимаем механизмы работы этих систем, не означает, что нужно отрицать наблюдаемые результаты. Кстати, многие процессы человеческого мышления тоже до сих пор не формализованы, но это не мешает нам признавать их существование.
Так что давайте судить по фактическим достижениям, а не по устаревшим теоретическим представлениям двадцатилетней давности о том, чем "должны" быть нейросети.
Аналогия с доткомами как раз самая прямая:
- появилась перспективная технология, и менеджеры тут же за нее ухватились: уух, мы сейчас!!
А "сейчас" не получилось. Прошло много лет до появления Алибабы (как площадки для продажи продукции заводов) и Амазона (розничного маркетплейса), а потом еще много лет до открытия в каждой деревне пунктов выдачи Озон и WB, которые только в последние несколько лет реально подвинули оффлайн-торговлю.
И это не потому что "примитивные веб-технологии", дело не в навороченном дизайне и крутых джаваскриптах, дело в проникновении веба в каждый телефон и каждый телевизор, когда любой бабке проще открыть сайт или приложение на телефоне и заказать новые спицы, чем тащиться в магазин через весь город.
Общество, бизнес, банки созрели для того чтобы техническая возможность стала частью жизни.
И вот теперь AI находится как раз в стадии доткомов: он вышел из лабораторий и скучных исследований "будем программировать сеть из 10 узлов и 3 слоев", теперь AI пишет тексты, ведет заумные беседы и сочиняет стихи.
Уух, мы сейчас!! - закричали менеджеры....
С другой стороны, пока менеджеры кричат - идут инвестиции и оплачивается работа по улучшению...
Давайте посмотрим на конкретные факты, которые показывают фундаментальное отличие текущей ситуации от пузыря доткомов.
В эпоху доткомов мы видели рост NASDAQ на 500%, основанный на "воздухе" - в 1999 году сотни убыточных компаний выходили на биржу с одним лишь веб-сайтом в активе. Им требовались годы для создания реальной инфраструктуры.
Сегодня 72% организаций уже внедряют AI, причём 20% активно его используют с измеримыми результатами. Например, X5 Group благодаря AI сократила списания на 2% и увеличила выручку на 1%. Это не "перспективы", а реальные деньги.
И технологический прогресс продолжается. Буквально в начале декабря 2024 года Google представила квантовый процессор Willow, который способен решать за 5 минут задачи, требующие от обычных компьютеров времени больше возраста Вселенной. Это не маркетинговый хайп - процессор уже демонстрирует работающую квантовую коррекцию ошибок, открывая путь к практическому применению квантовых вычислений в AI.
Так что да, определённый инвестиционный ажиотаж есть. Но в отличие от доткомов, за ним стоят не просто "идеи", а работающие технологии, которые уже приносят измеримую пользу и продолжают стремительно развиваться. Это качественно другая ситуация.
20% активно его используют с измеримыми результатами
У 80% результат ниже погрешности измерения. У 20% лучших - на уровне погрешности (1%, серьезно??).
Сегодняшняя новость (чисто по памяти, попалось в ленте между ГОСТом на шаурму и запретом Вотсапа):
BBC возмущена тем что какой-то AI от Apple, формируя ленту новостей, произвольно вставлял в нее придуманные им же новости "от BBC".
Возможно, эта новость тоже была им придумана ))
А мне вот какая новость с хабра попалась:
Победа Claude (Anthropic)
По данным Anthropic, GitLab сообщает об улучшении эффективности на 25-50% среди своих команд разработчиков, использующих Claude. Sourcegraph, платформа для анализа кода, зафиксировала увеличение темпов вставки кода на 75% после перехода на Claude в качестве основной модели AI.
Фейл ChatGPT (OpenAI)
Однако эффекты от помощников по кодированию на основе AI не являются равномерно положительными в масштабах всей отрасли. Исследование Uplevel не выявило значительных улучшений производительности для разработчиков, использующих GitHub Copilot. Ещё более тревожно, исследование зафиксировало увеличение количества ошибок на 41% при использовании инструмента AI
Так что не стоит однобоко смотреть. Если вестись на хайп вокруг OpenAI может сложится мнение, что ИИ не приносит пользы программистами и компаниям разработчикам ПО. Только забывают уточнить о каком именно ИИ идёт речь, их много, все разные и подходят для разных ниш по разному.
https://habr.com/ru/companies/bothub/news/869104/
платформа для анализа кода, зафиксировала увеличение темпов вставки кода на 75% после перехода на Claude в качестве основной модели AI
слышу до боли знакомое "хлеборобы увеличили обмолот пшеницы до 123 центнеров с гектара!"
Так-то качество работы сервисов и повышение доходности компании наверное не в темпах вставки кода определяется. Хотя смотря для кого...
Ну теперь я точно знаю что ты или совсем не кодер, или кодер-старовер. А я кодер, и я лично знаю насколько Sonnet 3.5 лучше чем ChatGPT-4o. У ChatGPT память рассыпается с каждым ответом и она начинает выдумывать новый код вместо старого, при попытке его воспроизвести (у Geminni с этим или еще хуже или так же, аутсайдеров я между собой не сравнивал). Это раздражает больше всего. Sonnet 3.5 последняя очень хорошо держит понимание кода, поэтому её хвалят. Короче я понял, подобные негативные комментарии просто от непрофильных специалистов, не тестировавшие модели на реальных обьемных контекстах кода.
По-моему, фундаментальное отличие состоит в том, что нынешние "AI капитаны" жёстко убыточны, и несмотря на все эти победные реляции, они не могут выложить на рынок прибыльный продукт. В последнее время мне всё больше кажется странным, что все эти разговоры про бенчмарки и прочие "обходы джунов" идут от коммерческих фирм, которым надо бы хвастаться количеством клиентов и прибыльностью своих продуктов.
Но в реальности мы видим, что воронка продаж такова, что обслуживание всей этой системы обходится раза в 2-3 дороже, чем прибыль от неё. Почему так? Во-первых, бесплатный пользователь "Амазона" (пришёл посмотреть товары) почти не грузит инфраструктуру, а вот развлекающийся с ChatGPT вполне себе использует ценные GPU. Во-вторых, похоже, что этот продукт в принципе не настолько ценен, чтобы себя окупать (опять же с учётом воронки продаж, где на одного платного юзера придётся даже не знаю сколько тысяч халявщиков).
Одна из многочисленных проблем текущих LLM технологий -- их плохая масштабируемость. Один раз написали Windows или там MS Office, продали миллион копий. А тут сплошные расходы. И непонятно, чего ожидать от светлого будущего, если, как вы говорите, вот оно, уже прямо сейчас -- конвертация AI в деньги по доступной цене. Если сейчас прибыли нет, чего ещё нужно-то?..
которым надо бы хвастаться количеством клиентов и прибыльностью своих продуктов.
Проблема только в том что прибыльность и количество клиентов зависят не только от используемых технологий.
Ну вот увеличились у условного Амазона прибыли после использования ИИ. Попробуй разберись тут причинно-следственная связь или просто корреляция.
Во-первых, бесплатный пользователь "Амазона" (пришёл посмотреть товары) почти не грузит инфраструктуру, а вот развлекающийся с ChatGPT вполне себе использует ценные GPU
Амазон уже давно использует ИИ в сервисе-поддержке. Плюс они там что-то мутят с отзывами. Плюс всякие рекомендации и просто сортировка в поиске.
То есть используют они его точно и не только для развлечения людей.
А если мы говорим про конкретно chatGPT, то он хотя всё ещё убыточный в целом, но деньги он вполне себе зарабатывает. И можно вспомнить сколько времени тот же Amazon по началу убыточным был. Или куча других фирм.
Вот меня интересует не прибыль Амазона, а именно прибыль OpenAI или Anthropic. По-моему, у них дела совсем так себе.
Амазон мог быть убыточным, а потом вырасти именно из-за эффекта масштаба. Как уже было сказано выше, в какой-то момент любой бабке стало проще зайти на Амазон, а не в магазин на другом конце города. При этом (важно) расходы Амазона практически не выросли -- вот вам и машинка по зарабатыванию денег.
У производителей же LLM имеется чёткая воронка продаж. Закинул N денег, получил N/2 денег. Даже если их клиентская база вырастет в 10 раз, формула эта изменится не очень сильно. Ну если не считать, конечно, что они свои миллиардные расходы на зарплату пускают.
Амазон мог быть убыточным, а потом вырасти именно из-за эффекта масштаба.
Амазон был убыточным потому что они долгое время инвестировали в рост и развитие.
Тот же Open AI Вроде бы сейчас уже зарабатывает около миллиарда в год.
У производителей же LLM имеется чёткая воронка продаж. Закинул N денег, получил N/2 денег. Даже если их клиентская база вырастет в 10 раз, формула эта изменится не очень сильно.
Вообще-то изменится. Потому что они как раз таки кучу денег тратят на R&D. А эти расходы не растут с ростом количества клиентов.
Ну вот смотрите, "рост и развитие" для Амазона это что? В моём понимании, инфраструктура, которая может обслуживать много клиентов.
У OpenAI это всё уже есть. Они при желании могут обслуживать сколько угодно людей, при условии, что будет прибыль. R&D это, конечно, хорошо, но это всё какой-то абстрактный маркетинговый разговор.
Уже начиная с GPT-3, а тем более, с GPT-4 постоянный поток статей -- то он обгоняет джуна, то художника, то технического писателя, то ещё кого. Стало быть, R&D этой системы уже позади, и можно спокойно продавать GPT-4 (допустим) и иметь чистую прибыль, но этого не происходит.
В моём понимании, их расходы выше доходов не потому, что они всю прибыль пускают на R&D, а именно потому, что даже безо всякого R&D расходы (с учётом бесплатных пользователей) превышают доход, получаемый от платящих клиентов.
Ну вот смотрите, "рост и развитие" для Амазона это что? В моём понимании, инфраструктура, которая может обслуживать много клиентов.
Кроме всего прочего например ещё и AWS, Prime и прочие сервисы, куча собственного софта и железа для логистики и складов. У них даже свои собственные машины.
У OpenAI это всё уже есть. Они при желании могут обслуживать сколько угодно людей, при условии, что будет прибыль
Ну так они и обслуживают. И я готов спорить на что угодно что если они будут заниматься только этим, то будут прибыльными. Миллиард в год их инфраструктура не стоит.
R&D это, конечно, хорошо, но это всё какой-то абстрактный маркетинговый разговор.
Сейчас идёт гонка технологий. И технологии развиваются относительно быстро. Если остановится и перестать заниматься R&D, то конкуренты обгонят и завтра ты будешь никому не нужен.
И такая ситуация будет ещё глды, а то и десятилетия. И в конце "выжившие" и будут снимать сливки.
Точно так же как это в общем-то и произошло в контексте маркетплейсов.
В моём понимании, их расходы выше доходов не потому, что они всю прибыль пускают на R&D, а именно потому, что даже безо всякого R&D расходы (с учётом бесплатных пользователей) превышают доход, получаемый от платящих клиентов.
Ну вот быстрый гуглёж говорит что:
Report claims that OpenAI has burned through $8.5 billion on AI training and staffing, and could be on track to make a $5 billion loss. It's claimed that OpenAI has spent roughly $7 billion on LLM (large language models) training and inference, and as much as $1.5 billion on staffing.
То есть семь миллиардов на R&D и минус в пять миллиардов. Получается без R&D они были бы в плюсе.
То есть семь миллиардов на R&D и минус в пять миллиардов. Получается без R&D они были бы в плюсе.
Ну это не "R&D", а тренировка AI, которая, получается, как вы сами считаете, будет длиться ещё годами, если не десятилетиями. И расходы на тренировку только растут, то есть у нас не условный R&D отдел, который отсасывает какую-то сумму ежемесячно, а постоянно растущие расходы. При этом на выходе получается продукт, за который люди даже сейчас не готовы платить.
Смотрите, я ж не против, дай им бог здоровья. Но я за reality check. У нас есть GPT-4, которая уже подавалась как "мы обгоняем джунов, шахматистов, велосипедистов". Plus подписка на это чудо стоит 20 долл в месяц, а Pro -- 200 долл в месяц. Казалось бы, джун в любой сносной стране получает, ну не знаю, хотя бы полторы, а работодателю обходится в три тысячи с учётом разных налогов?
Стало быть, по логике вещей должна стоять очередь людей, которые с удовольствием и 500 отчекрыжат, и даже с учётом любых R&D OpenAI уже должен купаться в деньгах. А так мы вполне можем прийти к ситуации через 5 лет (напр.), когда, как вы говорите, на дворе GPT-N, а подписка по-прежнему в районе 200 долл (ну 300), и клиенты валом не валят.
Ну это не "R&D", а тренировка AI
В данном случае это одно и тоже.
которая, получается, как вы сами считаете, будет длиться ещё годами, если не десятилетиями
Амазон был убыточным 26 лет. В какой момент нужно было перестать в него инвестировать?
Стало быть, по логике вещей должна стоять очередь людей, которые с удовольствием и 500 отчекрыжат, и даже с учётом любых R&D, и OpenAI уже должен купаться в деньгах
chatGPT и его аналоги по хорошему появились всего пару лет назад. Это считай абсолютно новый инструмент, с которым всем надо разобраться и понять как они могут его использовать. И далеко не все в состоянии сделать это так быстро.
Банально сколько времени прошло между появлением первых персональных компьютеров, моментом когда их стали использовать отдельные фирмы и моментом когда их стали использовать практически все?
Амазон был убыточным 26 лет. В какой момент нужно было перестать в него инвестировать?
Я не думаю, что это разумная постановка вопроса. Амазон был убыточным 26 лет, потому что так решил его менеджмент, потому что любому инвестору было совершенно видно, как расходуются эти деньги -- в покрытие, в новые инструменты. Амазон мог выйти на прибыль, быть может, уже через пять лет, но это было бизнес решение.
OpenAI не может выйти на прибыль, как мне кажется.
Банально сколько времени прошло между появлением первых персональных компьютеров, моментом когда их стали использовать отдельные фирмы
Вот это отличный пример. Несмотря на то, что рынок PC был не так велик, а стоили компьютеры дорого, фирмы типа IBM или Compaq не работали себе в убыток. Да, им хотелось иметь в 100 раз больше клиентов, но даже та база, которая была, их кормила.
Я понимаю, что далеко не все умеют пользоваться LLM с выгодой для себя. Но это не проблема. Проблема в то, что кто умеет, готов платить макс. 200 долл с рыла (если считать, что цену OpenAI не из пальца высасывает, а хоть как-то просчитывает).
Амазон был убыточным 26 лет, потому что так решил его менеджмент, потому что любому инвестору было совершенно видно, как расходуются эти деньги -- в покрытие, в новые инструменты.
Вы серьёзно хотите сказать что всё это время не было скептиков, которые точно так же считали что Amazon никогда не станет прибыльным? :)
Вот это отличный пример. Несмотря на то, что рынок PC был не так велик, а стоили компьютеры дорого, фирмы типа IBM или Compaq не работали себе в убыток
Но их отделения, которые занимались именно ПК, вполне себе были убыточными какое-то время.
Да, им хотелось иметь в 100 раз больше клиентов, но даже та база, которая была, их кормила.
IBM в то время кормился в основном за счёт больших компьютеров и/или заказов от государства/военных.
Проблема в то, что кто умеет, готов платить макс. 200 долл с рыла (если считать, что цену OpenAI не из пальца высасывает, а хоть как-то просчитывает).
Сколько сотрудников в концерне вроде Siemens? Что будет если хотя бы за половину из них начнут платить по 200$?
Вы серьёзно хотите сказать что всё это время не было скептиков, которые точно так же считали что Amazon никогда не станет прибыльным? :)
Дело не в скептиках, риск есть везде. Вопрос в том, какую бизнес-модель вам предлагают. Модель Амазона была проста и понятна: у нас есть три магазинчика, мы можем поделить копеечную прибыль с них и пойти по домам, а можем открыть ещё 27 магазинчиков, и будет уже их 30, и прибыль в 10 раз больше. Делим или вкладываем?
OpenAI предлагает другую модель: наши магазинчики в принципе не окупаются, но мы вот сейчас выкатим новый "более лучший" магазин, который купят по двойной цене, и расходы на его содержание будут ниже, чем сейчас, и покупателей будет в 100 раз больше. Почему -- а вот никто не знает, магия потому что.
Сколько сотрудников в концерне вроде Siemens? Что будет если хотя бы за половину из них начнут платить по 200$?
А зачем? Нам же говорят, что нынешний GPT уже "лучше джуна". Вы уже сейчас можете скачать бесплатную LLaMA, например. Через пять лет она всяко будет не хуже сегодняшнего GPT (который лучше джуна), ну и пользуйтесь на здоровье. Или вам в фирме только сеньёры нужны? Ну и мы до сих пор не знаем, окупает ли даже 200 долл с рыла ту воронку продаж, которая есть сейчас.
Это гораздо больше похоже на какую-нибудь мобильную игру с микротранзакциями. У вас 1000 юзеров на входе, 10 платит, 1 платит хорошо. Если платящие покрывают расходы, рост базы пользователей вас обогащает, если нет -- разоряет. Повышение конверсии в воронке -- это вообще такой священный грааль, вряд ли у OpenAI в этом деле уникальный опыт.
Модель Амазона была проста и понятна:
И была куча людей, которые считали что такое не взлетит потому что доставка и возврат это дорого и неудобно. И на каждую купленную вещь несколько будут возвращены.
И что Амазон разорится потому что поначалу они субсидировали доставку и делали возврат за свой счёт.
Но как я вижу сейчас про это уже забыли :)
А зачем? Нам же говорят, что нынешний GPT уже "лучше джуна".
Кто и где это говорит? Особенно про бесплатные модели?
И крупные корпорации достаточно инертны и далеко не сразу адаптируют нововведения. Особенно так чтобы сразу и во всём концерне.
И была куча людей, которые считали что такое не взлетит потому что доставка и возврат это дорого и неудобно.
Ну тем не менее продажа по почте и всякие иллюстрированные каталоги не Амазон придумал. В этом смысле инновация там достаточно скромная.
И опять же, речь не идёт о 100% надёжных деньгах. Понятна бизнес-модель. Она может не сработать. У OpenAI бизнес-модель в принципе непонятна.
Кто и где это говорит? Особенно про бесплатные модели?
Говорят про свежий ChatGPT (который O3), бесплатные модели пока отстают. Но если мы исходим из того, что через 5 лет OpenAI будет где-то в космосе, разумно предположить, что LLaMA (ну как бы Meta, тоже не лаптем щи хлебают) будет не хуже ChatGPT пятилетней давности?
И крупные корпорации достаточно инертны и далеко не сразу адаптируют нововведения.
Ну пусть мелкие адаптируют. Им ещё важнее экономить, если и вправду продукт позволяет.
Есть же примеры типа Unity, на которой поголовно все мелкие игровые разработчики сидят, а там уже и наверх просачивается.
Ну тем не менее продажа по почте и всякие иллюстрированные каталоги не Амазон придумал.
Автоматизацию или даже просто использование ИИ тоже не OpenAI придумали. В той же радиологии например ИИ используют уже давно.
А продажа по почте была в общем-то нишей и работала далеко не со всеми видами товаров.
У OpenAI бизнес-модель в принципе непонятна.
Что в ней непонятного?
Говорят про свежий ChatGPT
Кто и где?
Ну пусть мелкие адаптируют
А у мелких на эксперименты нет денег. Или нет экспертизы в этих вопросах чтобы понимать что делать.
Поэтому большинство смотрит как кто-то рискует и пробует. И таких "рисковых" потихоньку будет всё больше и больше. Но не так чтобы все и сразу стали этим заниматься. И это нормально и это так работает со всеми инновациями.
Что в ней непонятного?
"Автоматизация" -- это когда вы тратите на разработку N денег, а затем бесплатно клонируете на произвольное количество клиентов, либо работаете b2b с теми, кто платит.
OpenAI, по всей видимости, предлагает продукт, который 1) в перспективе конкурирует со своей бесплатной версией и чужими бесплатными аналогами; 2) не масштабируется -- фирма оплачивает использование каждого рабочего места; 3) вероятно, продаётся "в минус"; 4) с каждой версией потребляет всё больше ресурсов производителя (а цена для пользователя плюс-минус та же); 5) непонятно на кого таргетирована (в чём конкретно предложение) и во сколько может реально оцениваться.
Кто и где?
Напр., да и не только.
А у мелких на эксперименты нет денег. Или нет экспертизы в этих вопросах чтобы понимать что делать.
Ну вот это один из изводов "непонятно в чём предложение". Казалось бы, если это AI, который автоматизирует работу, какая тут нужна экспертиза? Убираем человека, ставим на его место AI.
Ну а так -- пусть пробуют, конечно.
"Автоматизация" -- это когда вы тратите на разработку N денег, а затем бесплатно клонируете
Это далеко не единственный вариант автоматизации.
OpenAI, по всей видимости, предлагает продукт, который 1) в перспективе конкурирует со своей бесплатной версией и чужими бесплатными аналогами
Microsoft тоже. И куча других фирм.
не масштабируется -- фирма оплачивает использование каждого рабочего места
Точно так же применимо к продуктам Microsoft и кучи других фирм.
вероятно, продаётся "в минус";
Что именно? Ну то есть сама продажа chatgpt прибыльна. В минус тянут расходы на развитие.
с каждой версией потребляет всё больше ресурсов производителя
Я уже писал про Microsoft и кучу других фирм? :)
непонятно на кого таргетирована
На кого конкретно таргетированы Windows, Office, Amazon, ПК или там IPhone в момент их появления на рынке?
Напр., да и не только
Кто это и почему кто-то должен воспринимать всерьёз это мнение?
Казалось бы, если это AI, который автоматизирует работу, какая тут нужна экспертиза? Убираем человека, ставим на его место AI.
Но автоматизации она обычно так не работает. Обычно это что-то вроде "убираем сколько-то менее квалифицированных людей и берём меньшее количество более квалифицированных с какими-то новыми инструментами". Ну и естественно чтобы бы в сумме получалось выгоднее.
Потому что любые "инструменты автоматизации" кто-то должен настраивать и обслуживать. И без таких людей и инструменты бесполезны.
Я уже писал про Microsoft и кучу других фирм? :)
Вы странно это читаете: жирный MS Office потребляет мои ресурсы, а жирный ChatGPT -- ресурсы OpenAI.
Если MS раздаёт офис или ещё чего со скидкой или бесплатно для реклмы или ещё для чего -- это по сути не плюс и не минус, дадим студенту халявный офис, он всё равно его не купит, расходов ноль. Бесплатный же ChatGPT кушает ресурсы сервера.
Что именно? Ну то есть сама продажа chatgpt прибыльна. В минус тянут расходы на развитие.
Ну мы этого не знаем. У вас выше написано расходы на "training and inference", и непонятно, какой процент тут чего.
а кого конкретно таргетированы Windows, Office, Amazon, ПК или там IPhone в момент их появления на рынке?
Ну это вообще удивительный поворот. Скажем, Windows довольно чётко рекламировалась на бизнес-пользователя. iPhone тоже перечисляет что к чему.
Кто это и почему кто-то должен воспринимать всерьёз это мнение?
Вы спросили, кто и где так говорит -- я всего лишь ответил. Очевидно, что никакое мнение никто не "должен" воспринимать всерьёз, дело добровольное.
Обычно это что-то вроде "убираем сколько-то менее квалифицированных людей и берём меньшее количество более квалифицированных с какими-то новыми инструментами".
В моём представлении OpenAI стоило бы на каждом углу разжёвывать детально как это конкретно работает. У тех же Unity целые большие учебные курсы -- с нуля и до победы, и понятно, что к чему.
Вы странно это читаете: жирный MS Office потребляет мои ресурсы, а жирный ChatGPT -- ресурсы OpenAI.
MS Office уже давно есть в онлайн-варианте.
И точно так же наверняка скоро можно будет покупать модели ИИ для селф-хостинга.
Если MS раздаёт офис или ещё чего со скидкой или бесплатно для реклмы или ещё для чего -- это по сути не плюс и не минус
А как же он тогда раздаёт бесплатно доступ к онлайн-сервисам? И он не один. Тот же Google например тоже так делает.
Скажем, Windows довольно чётко рекламировалась на бизнес-пользователя
И сразу все бизнес-пользователи его купили? Ну или там хотя бы в течении двух лет?
Вы спросили, кто и где так говорит -- я всего лишь ответил.
А я вам указал что "кто-то где-то говорит" совсем не обязательно будет правдой. Или вообще адекватным аргументом.
Вон кто-то где-то говорит что БАДы работают. Вас после этого удивляет что ими до сих пор не пользуется 100% людей?
В моём представлении OpenAI стоило бы на каждом углу разжёвывать детально как это конкретно работает.
А откуда им знать как это может помочь куче абсолютно разных фирм?
А как он в целом работает они рекламируют.
И с Windows в своё время была похожая ситуация. И с ПК в целом. И с кучей других вещей.
MS Office уже давно есть в онлайн-варианте.
Онлайн -- это JavaScript, который работает у вас в браузере, ну и сравнительно с LLM копеечный бэкэнд для данных.
А как же он тогда раздаёт бесплатно доступ к онлайн-сервисам? И он не один. Тот же Google например тоже так делает.
Хранение данных стоит очень дёшево. В иерархии "что почём" расходы GPU в самом верху.
И сразу все бизнес-пользователи его купили? Ну или там хотя бы в течении двух лет?
В смысле? Все до сих пор не купили. Ваш исходный тезис -- эти продукты непонятно для кого. В рекламе чётко разжёвано, для кого. У LLM такой рекламы нет. Ну и возвращаемся к напечатанному: Microsoft Виндой в убыток себе не торговал.
А я вам указал что "кто-то где-то говорит" совсем не обязательно будет правдой. Или вообще адекватным аргументом.
Разумеется. Вот смотрите, получается, что я ссылаюсь на ненадёжный источник, и вообще всё идёт от каких-то блогеров-авгуров. Но это же безумие. Где OpenAI, который выйдет и скажет: вот, да, тут можно джуна уволить и поставить AI. А тут нельзя. Это же ваш продукт, ребята, вы и объясняйте. Я БАДы не покупаю не потому, что я такой умный, а потому что у меня доктор в ближайшей поликлинике. А тут либо блогер, либо ничего.
А откуда им знать как это может помочь куче абсолютно разных фирм?
Вот прежде чем в бизнес лезть, хорошо бы понимать нужды пользователя. А так и выходит, что никто не знает, кому оно нужно, даже производитель, фантастика.
Все до сих пор не купили. Ваш исходный тезис -- эти продукты непонятно для кого
Мой исходный тезис в том,что нет особой разницы между тем как в своё время "продавались" винда-ПК и как сегодня это происходит с ИИ.
Но это же безумие. Где OpenAI, который выйдет и скажет: вот, да, тут можно джуна уволить и поставить AI
Нигде. Потому что пока ещё нельзя уволить джуна и поставить ИИ. Точно так же как раньше нельзя было купить компьютер и уволить бухгалтера.
Но уже сейчас можно использовать ИИ кучей разных способов и на этом экономить или даже зарабатывать деньги. И чем лучше становятся ИИ, тем больше таких способов. И тем больше людей будут ими пользоваться и за них платить.
Я на работе уже пользуюсь им несколько раз в неделю, а местами и в день. Можно сказать что по мелочам, но время экономит.
Приватно тоже время от времени пользуюсь, но тут лично я ещё платить не готов. Но не уверен что это не изменится в будущем. Совсем не уверен.
Вот прежде чем в бизнес лезть, хорошо бы понимать нужды пользователя.
IBM рассказывал как ПК могут помочь каждой отдельно взятой маленькой фирме? Microsoft рассказывал такое про винду? Или там тоже был просто маркетинг и просто какая-то общая реклама?
Примеров и демоемтраций того что сейчас уже умеют ИИ полно. А дальше уже каждый может решать может он это как-то использовать у себя или нет. Или даже что-то новое придумать.
Мой исходный тезис в том,что нет особой разницы между тем как в своё время "продавались" винда-ПК и как сегодня это происходит с ИИ.
Ну это же исторически не так. Проблемы исходного рынка Винда/ПК в том, что это дорого стоило, и простой частник или мелкий бизнес прекрасно понимал, что ему бы тоже пригодилось, но не мог себе позволить. Хорошо оснащённый офис -- предмет зависти, а не непонимания, зачем оно, когда конторские счёты есть. Сейчас же практически любой бизнес может себе позволить заплатить 200 долл в месяц и погонять эту штуку, но не знает, зачем оно ему.
IBM рассказывал как ПК могут помочь каждой отдельно взятой маленькой фирме? Microsoft рассказывал такое про винду? Или там тоже был просто маркетинг и просто какая-то общая реклама?
Ну вы от меня хотите каких-то глубоких исторических познаний. Но вот есть, например, виральное видео 1989 года как раз от маркетинговой команды Microsoft -- что такое MS Word, как использовать и зачем. Подозреваю, что такого немало было. Удивительно, однако, что вы сомневаетесь. Если этого не делать, зачем вообще маркетинг? Это же их прямая работа.
Винда/ПК в том, что это дорого стоило, и простой частник или мелкий бизнес прекрасно понимал, что ему бы тоже пригодилось, но не мог себе позволить
Эээ, что? Сколько стоила винда? Сколько людей говорили что винда никому не нужна и достаточно доса с нортон командером?
Хорошо оснащённый офис -- предмет зависти, а не непонимания, зачем оно, когда конторские счёты есть.
В первые годы появления ПК это было именно что тоже непонимание. Как и в первые годы винды.
Но вот есть, например, виральное видео 1989 года как раз от маркетинговой команды Microsoft -- что такое MS Word, как использовать и зачем.
Ну так после этого его стали массово покупать? Ну насколько выросли продажи?
Удивительно, однако, что вы сомневаетесь. Если этого не делать, зачем вообще маркетинг? Это же их прямая работа.
Какого "такого"? Сейчас вокруг ИИ вполне себе хайп. И он тоже не сам по себе на пустом месте появился.
Но не заставит маркетинг всех сразу тратить деньги на новые инструменты. Что во времена ПК, что во времена винды,, что во времена всяких облаков, что сейчас.
Сколько людей говорили что винда никому не нужна и достаточно доса с нортон командером?
Не знаю. Разве Word и Excel работают в Нортон коммандере? Или вам в офисе компьютер нужен, чтобы файлы из папки в папку перекладывать?
В первые годы появления ПК это было именно что тоже непонимание.
Ну you are welcome, это уже вопрос мнений. Так или иначе, объём рынка тут вторичен. Каждый покупатель уже приносит доход.
Ну так после этого его стали массово покупать? Ну насколько выросли продажи?
Ну давайте всё же оставаться в разумных рамках. Вот вы мне это пишете, ожидая что сделаю что? Подниму бухгалтерию MS за 1989 год и сообщу достоверно, чем кончилась эта кампания?
Это называется shifting goalposts: мы обсуждали, насколько хорошо MS пыталась донести до пользователя зачем им нужен продукт. Как видите, пыталась весьма обстоятельно, и на этом данная тема исчерпана.
Какого "такого"? Сейчас вокруг ИИ вполне себе хайп.
Именно, хайп. То есть бизнес должен вести себя как безголовая курица и просто покупаться на хайп? А маркетологи пусть пиво пьют вместо работы.
Не знаю
На моей памяти полно.
Разве Word и Excel работают в Нортон коммандере?
Зачем они кому-то нужны? Разве можно их купить и взамен кого-то уволить? Разве на них можно зарабатывать деньги? Это просто траты и игрушки для богатых.
Так или иначе, объём рынка тут вторичен. Каждый покупатель уже приносит доход.
Но прежде чем продать первый ПК сначала тоже надо потратить кучу денег и времени.
Вот вы мне это пишете, ожидая что сделаю что?
Я вам это пишу ожидая что вы вспомните сколько времени потребовалось винде чтобы стать более-менее массовой. И куче других нововведений.
И это были совсем не сроки в пару лет.
Именно, хайп. То есть бизнес должен вести себя как безголовая курица и просто покупаться на хайп?
Зачем? Бизнес может посмотреть и подумать как он это может применить. Или подождать пока не придумают конкуренты и слизать с них. Или понять что конкретно им это не нужно. Или даже проспать нужный момент и разориться.
Это просто траты и игрушки для богатых.
Довольно странно стебаться в рамках альтернативной истории. В нашем мире (как пишет Википедия) Windows 3.0 за полтора года продалась в количестве 10 млн копий по цене 150 долл за копию (умножайте в 2.4 для сегодняшних цен). После чего вышла гораздо более "народная" 3.1. То есть мы точно знаем, что продукт был успешно таргетирован, цена была совсем не низкой, и бесплатно ничего не раздавали.
сколько времени потребовалось винде чтобы стать более-менее массовой. И куче других нововведений
Да это нерелевантно. Нельзя же рассуждать так: винда буксовала, а потом как выстрелила, значит, и ChatGPT буксует, а потом тоже выстрелит. Бывает, кто-то просто буксует, а потом всё.
Зачем? Бизнес может посмотреть и подумать как он это может применить.
Ну вот маркетологи OpenAI, видимо, так же рассуждают. С моей точки зрения, корову так не продашь.
Довольно странно стебаться в рамках альтернативной истории.
Это не альтернативная история. Это мнение кучи людей в то время.
В нашем мире (как пишет Википедия) Windows 3.0 за полтора года продалась в количестве 10 млн копий по цене 150 долл за копию (умножайте в 2.4 для сегодняшних цен).
А сколько подписчиков у ChatGPT?
Да это нерелевантно. Нельзя же рассуждать так: винда буксовала, а потом как выстрелила, значит, и ChatGPT буксует, а потом тоже выстрелит.
Конечно нельзя. Но точно так же нельзя рассуждать что "chatgpt буксует и поэтому точно не выстрелит".
Ну вот маркетологи OpenAI, видимо, так же рассуждают. С моей точки зрения, корову так не продашь.
Но они продают. То есть их планы пока вполне себе работают так как они себе это представляют. Они и не планировали уже сейчас выйти в плюс.
Это не альтернативная история. Это мнение кучи людей в то время.
Мнение людей, которые не платят, не имеет значения. Насколько я помню, Windows 3 был в принципе самым популярным софтверным продуктом своего времени, так что с чем мы сравниваем?
Майкрософт продал 10 миллионов копий по высокой твёрдой цене, и назвать это иначе чем успехом нельзя.
Напротив, Open AI имеет убыток, и мы не знаем до сих пор, приносят ли подписчики им прибыль, или каждый из них гоняет GPU больше, чем на 20 или 200 долл. в месяц.
Но точно так же нельзя рассуждать что "chatgpt буксует и поэтому точно не выстрелит".
Ну с этим кто б спорил.
Они и не планировали уже сейчас выйти в плюс.
Да вот похоже, что они и в будущем не планируют. Напомню, что у OpenAI нет инвесторов, есть только "донаторы".
Мнение людей, которые не платят, не имеет значения.
И сколько вы уже заплатили за chatgpt? :)
Напротив, Open AI имеет убыток, и мы не знаем до сих пор, приносят ли подписчики им прибыль, или каждый из них гоняет GPU больше, чем на 20 или 200 долл. в месяц.
Я же выше уже приводил цифры. Основная причина убытков это расходы на дальнейшее развитие. Которые совсем не сюрприз и вполне себе так и были запланированы.
Да вот похоже, что они и в будущем не планируют. Напомню, что у OpenAI нет инвесторов, есть только "донаторы".
Ну у "донаторов" и OpenAI похоже немного другое мнение по этому вопросу: https://habr.com/ru/companies/bothub/news/870300/
И сколько вы уже заплатили за chatgpt? :)
Нисколько. Но я же и не говорю, что OpenAI должен ориентироваться на меня.
Основная причина убытков это расходы на дальнейшее развитие.
Возможно. Но у вас всё же написано "training & inference", то есть мы реально не знаем, каковы операционные расходы. Кстати, ещё момент: Microsoft им сильно субсидирует GPU, там цена чуть ли не втрое меньше.
Ну у "донаторов" и OpenAI похоже немного другое мнение по этому вопросу
Другое? "OpenAI находится на расстоянии многих лет от достижения этой цели." Это же классическая фраза Ходжи Насреддина о том, что ишака "за много лет" можно научить грамоте. А там или ишак, или падишах.
Нисколько
То есть получается ваше мнение не имеет значения?:)
Кстати, ещё момент: Microsoft им сильно субсидирует GPU, там цена чуть ли не втрое меньше.
Цена чего?
"OpenAI находится на расстоянии многих лет от достижения этой цели
Ну да. Но это не значит что это в принципе не планируют.
И, как я уже писал выше, Амазон к этой цели шёл 26 лет. Несмотря на скептиков и убыточность их подхода.
То есть получается ваше мнение не имеет значения?:)
Для кого? Для OpenAI, конечно, нет. Так же как мнение не-юзеров Windows для Майкрософт. Для общества шире имеет -- ведь они тоже соседей и друзей убедили (не) покупать.
Цена чего?
Часа работы сервера. OpenAI платит им $1.30 за час, в то время как цена для обычного клиента что-то типа $3.50.
И, как я уже писал выше, Амазон к этой цели шёл 26 лет.
Это справедливо, но эти в принципе ничего не планируют на своей жизни. Ну ей-богу, Наделла уже на пенсии будет, а инвесторам напомнят, что они "донаторы", не я же эту формулировку придумал.
OpenAI платит им $1.30 за час, в то время как цена для обычного клиента что-то типа $3.50.
А взамен насколько я понимаю Microsoft может бесплатно использовать технологии и модели OpenAI.
Это справедливо, но эти в принципе ничего не планируют на своей жизни.
Во первых это не так. А во вторых никто никого не заставляет в них инвестировать. Вы думаете что эти самые "донаторы" деньги и риски считать не умеют?
А взамен насколько я понимаю Microsoft может бесплатно использовать технологии и модели OpenAI.
Проблема в том, что OpenAI получает субсидированные мощности, и если предположить, что их пользовательская база вырастет в 10 раз, вероятно, Майкрософту уже будет менее интересен такой обмен. В любом случае, по гамбургскому счёту расходы у них должны быть ещё выше.
Вы думаете что эти самые "донаторы" деньги и риски считать не умеют?
Ну раз вы спрашиваете меня, то да, я думаю именно так. Если бы это было не так, не было бы дотком пузыря, например.
Альтернативная гипотеза: OpenAI будет разорён/ликвидирован (очевидно, что недавно полученный раунд инвестиций они довольно быстро проедят; по крайней мере, раньше, чем выйдут на прибыль, и что дальше?), а их технологии в том виде, в котором они окажутся на этот момент, будут принудительно под брендом Copilot втюхиваться Microsoft'ом в составе Office 365 с повышенной платой. Там же пакет, никто не спрашивает, нужен ли вам PowerPoint, например.
Проблема в том, что OpenAI получает субсидированные мощности, и если предположить, что их пользовательская база вырастет в 10 раз, вероятно, Майкрософту уже будет менее интересен такой обмен.
Но это не значит что подписка даже в такой ситуации станет убыточной.
Ну раз вы спрашиваете меня, то да, я думаю именно так. Если бы это было не так, не было бы дотком пузыря, например.
А если бы это было исключительно так, то не было бы Amazon и кучи других фирм.
Альтернативная гипотеза:
С чего вы решили что технологии получит именно Microsoft? Да и вообще не вижу смысла Microsoft пихать столько денег в OpenAI и в результате получить такую мелочь.
Там же пакет, никто не спрашивает, нужен ли вам PowerPoint, например.
А почему бы Microsoft просто не взять и не поднять на столько же цены без всякого ИИ/копилота? Ну если их клиентам всё равно деваться некуда?
Но это не значит что подписка даже в такой ситуации станет убыточной.
Мы до сих пор не знаем реальных цифр, но да, получается, что можно расходы на inference (в предположении, что нет training) умножать на 2.5.
то не было бы Amazon и кучи других фирм.
Я думаю, что вкладчики Амазона считать умели, а "донаторы" OpenAI не умеют, нет противоречия.
С чего вы решили что технологии получит именно Microsoft?
Ну а кто главный коммерческий спонсор? У MS, кстати, "право первой ночи" -- recoup deal, если OpenAI выходит на прибыль, MS получает чуть ли не половину довольно долго.
А почему бы Microsoft просто не взять и не поднять на столько же цены без всякого ИИ/копилота?
Это хороший вопрос. Не знаю. Но исторически у них какая-то нездоровая любовь к "агентам-помощникам", которые втюхивались как новое слово UX, даже если пользы от них не было никакой. Ну та же скрепка в офисе, потом Кортана и прочее.
Я думаю, что вкладчики Амазона считать умели, а "донаторы" OpenAI не умеют, нет противоречия
Ну думать вы так конечно можете. Но что-то говорит мне что люди, которые инвестируют такие суммы, особенно для других людей, обычно не то чтобы дураки.
Ну а кто главный коммерческий спонсор?
И что? Почему это даёт ему какие-то права?
Это хороший вопрос. Не знаю.
Ну тут всё относительно просто. Потому что это так не работает :)
Но исторически у них какая-то нездоровая любовь к "агентам-помощникам", которые втюхивались как новое слово UX, даже если пользы от них не было никакой
И из-за этих помощников нужно было платить больше? Что-то я такого не припомню.
Но что-то говорит мне что люди, которые инвестируют такие суммы, особенно для других людей, обычно не то чтобы дураки.
Ну вот в этой гонке участвовал Apple, например. А когда их допустили до подробностей, они резко сдали назад и решили не вписываться. Получается, либо Эппл дурак, либо Майкрософт. Считайте, что я в этом вопросе соглашаюсь с решением Эппла.
Почему это даёт ему какие-то права?
У них уже право recoup и процента от грядущей прибыли. Я думаю, что в ближайшие пару лет новостей не будет, а потом у OpenAI кончатся деньги с текущего раунда, и любому другому потенциальному вкладчику придётся иметь дело с фирмой, на которой уже висит большое обременение в пользу Microsoft. Не верю, что при таком раскладе кто-то ещё позарится.
И из-за этих помощников нужно было платить больше? Что-то я такого не припомню.
Я не готов обсуждать память, неинтересно. Однако MS драл 210 долл за апгрейд с 95 офиса до 97го. Это не только агенты, но и всякое другое, конечно, но всё же шло общим пакетом.
Ну и вдогонку о том, что "не дураки сидят на деньгах". Эти не дураки сначала вставляли скрепку, потом её выкорчёвывали. Вероятно, и когда вставляли, правильно делали, и когда выкорчёвывали, тоже. Ну вот увидим этот трюк ещё раз, не впервой.
Ну вот в этой гонке участвовал Apple, например. А когда их допустили до подробностей, они резко сдали назад и решили не вписываться.
И?
Получается, либо Эппл дурак, либо Майкрософт
Ложная дихотомия.
У них уже право recoup и процента от грядущей прибыли
И это именно то что они получат. С чего вы решили что это даёт им право делать всё что они хотят?
Кроме того это не звучит как просто "донатор".
Я думаю, что в ближайшие пару лет новостей не будет, а потом у OpenAI кончатся деньги с текущего раунда
Я бы сказал что вам стоить почитать актуальные новости.
и любому другому потенциальному вкладчику придётся иметь дело с фирмой, на которой уже висит большое обременение в пользу Microsoft.
И именно поэтому Microsoft и не может творить что угодно и ограничен договором.
Это не только агенты, но и всякое другое, конечно, но всё же шло общим пакетом
И? Вы же пишите что драть деньги будут именно за помощника.
Эти не дураки сначала вставляли скрепку, потом её выкорчёвывали. Вероятно, и когда вставляли, правильно делали, и когда выкорчёвывали, тоже
И в чём должна быть проблема? Большинство крупных фирм принимали решения от которых потом отказывались.
А уж экспериментировать с функциями в программах это вообще норма.
Ложная дихотомия.
Ну и прекрасно, значит, и я не дурак. Я всего лишь соглашаюсь с Apple.
И это именно то что они получат. С чего вы решили что это даёт им право делать всё что они хотят?
Сейчас они и так имеют всё, что им нужно. А если OpenAI пойдёт под откос, то MS будет самым очевидным претендентом на наследие, вот и всё.
Я бы сказал что вам стоить почитать актуальные новости.
Напр.?
И? Вы же пишите что драть деньги будут именно за помощника.
Да. Потому что в отличие от ситуации 20-летней давности сейчас никаких других больших апдейтов не предвидится вообще. Я даже не представляю, что они ещё могут попытаться продать юзеру.
И в чём должна быть проблема? Большинство крупных фирм принимали решения от которых потом отказывались.
Никаких проблем. Функция помощника оказалась невостребованной. Бывает, что ресурсы вкладываются в невостребованные функции, о чём вся эта ветка.
Ну и прекрасно, значит, и я не дурак. Я всего лишь соглашаюсь с Apple.
Так вопрос то не в этом. Вопрос почему вы считаете дураками всех кто не согласен с Apple.
Сейчас они и так имеют всё, что им нужно.
Даже если,, то каким образом это должно означать что они всегда будут получать всё что хотят?
Кроме того аргумент с "всего лишь донаторы" всё меньше и меньше выглядит адекватным.
Напр.?
Например новости про то какие расходы планирует OpenAI и за счёт чего их собираются оплачивать.
Да. Потому что в отличие от ситуации 20-летней давности сейчас никаких других больших апдейтов не предвидится вообще
Во первых с чего вы это решили? Во вторых с чего вы решили что это обязательно означает апдейт с ИИ за который обязательно возьмут деньги?
Функция помощника оказалась невостребованной. Бывает, что ресурсы вкладываются в невостребованные функции, о чём вся эта ветка.
Но chatgpt и ИИ в целом вполне себе востребованны. И за них даже платить готовы.
То есть сможет ли OpenAI действительно захватить приличную часть рынка в будущем это вопрос открытый. То, что ИИ уже никуда не денутся и будут всё больше и больше востребованны, это уже сомнений не вызывает.
Вопрос почему вы считаете дураками всех кто не согласен с Apple.
Посмотрите ветку выше, я такого нигде не утверждал.
Даже если,, то каким образом это должно означать что они всегда будут получать всё что хотят?
Это всего лишь моё предположение -- исходя из роли MS в этой истории.
Кроме того аргумент с "всего лишь донаторы" всё меньше и меньше выглядит адекватным.
Дисклеймер про донаторов не предназначался MS -- с ними, я полагаю, не через твиттер общались. У MS свой интерес, а вот остальные -- да, донаторы на птичьих правах.
Например новости про то какие расходы планирует OpenAI и за счёт чего их собираются оплачивать.
А, ну планы это не новости. Подождём.
Во первых с чего вы это решили? Во вторых с чего вы решили что это обязательно означает апдейт с ИИ за который обязательно возьмут деньги?
Ну тоже подождём. Если у вас есть иные соображения, чего ещё можно вкрячить в офис -- давайте.
Но chatgpt и ИИ в целом вполне себе востребованны. И за них даже платить готовы.
Ну так забесплатно что угодно востребовано. Или по цене ниже себестоимости. Да я первый готов поэксперементировать с технологией, почему бы и нет. А вот когда уже будут предлагать "продакшн" за реальную, а не рекламную цену -- тогда и решим.
Посмотрите ветку выше, я такого нигде не утверждал.
Ну вы же считаете что OpenAI это "пузырь" и что они разорятся?
У MS свой интерес, а вот остальные -- да, донаторы на птичьих правах.
Вы знаете на каких точно условиях "донатили" все остальные?
Ну так забесплатно что угодно востребовано.
Во первых нет. Во вторых за chatgpt платят.
Или по цене ниже себестоимости.
И опять же во первых нет. А во вторых не особо понятно как вы оцениваете себестоимость отдельной подписки на chatgpt.
А вот когда уже будут предлагать "продакшн" за реальную, а не рекламную цену -- тогда и решим.
У ChatGPT есть вполне себе реальная цена подписки. Она вас либо устраивает, либо нет. Это вам либо выгодно, либо нет.
Будет ли цена меняться и если да, то в какую сторону, на данный момент не особо принципиально. Вам никто не запрещает передумать если она изменится.
Ну вы же считаете что OpenAI это "пузырь" и что они разорятся?
Я думаю, что это вполне вероятно, да. Могу и ошибаться, очевидно.
Вы знаете на каких точно условиях "донатили" все остальные?
У кого персональные условия, тому этот параграф про "донатчиков" и прочие дисклеймеры на сайте не требуются.
А во вторых не особо понятно как вы оцениваете себестоимость отдельной подписки на chatgpt.
Я не готов спорить на эту тему, потому что у нас нет полных данных. Мы знаем, что GPU мощности они получают на льготных условиях, и всё равно тратят больше, чем зарабатывают. Вероятно, часть этих мощностей уходит на необязательные вещи, но мы не знаем, сколько. Возможно, если бы себестоимость была ниже подписки, об этом бы они говорили на каждом углу.
Вам никто не запрещает передумать если она изменится.
Согласен, но какой смысл обсуждать спрос на полубесплатные печеньки? И так ясно, что он есть. Нахаляву и уксус, как говорится.
Я думаю, что это вполне вероятно, да.
И как вы называете людей, которые инвестируют в пузырь?
У кого персональные условия, тому этот параграф про "донатчиков" и прочие дисклеймеры на сайте не требуются.
Это не отвечает на мой вопрос.
Возможно, если бы себестоимость была ниже подписки, об этом бы они говорили на каждом углу.
Зачем? Амазон заявлял что у них себестоимость рассылки ниже того, что они берут с клиентов?
Согласен, но какой смысл обсуждать спрос на полубесплатные печеньки?
Так это именно вы его хотите обсуждать. Инвесторов это не особо интересует. Их интересует то, что OpenAI сможет предложить им в том самом относительно далёком будущем.
Далеко не у всех инвесторов горизонт планирования пять лет.
И как вы называете людей, которые инвестируют в пузырь?
Никак. Зачем мне вообще как-то называть людей? Это люди, которые неадекватно оценивают ситуацию, либо пытаются спекулировать "в короткую".
Это не отвечает на мой вопрос.
Ну он изначально поставлен невозможным образом. Как я могу знать, на каких условиях донатили "все остальные"? Может, лично вы донатили на особых для вас условиях? Любой донатор мог в теории позвонить Альтману и договориться. А дисклеймер -- это "по умолчанию". Видимо, для большинства.
Амазон заявлял что у них себестоимость рассылки ниже того, что они берут с клиентов?
Фирма, которая объявляет широкий сбор инвестиций, совсем в другой позиции, чем Амазон. Если просишь денег у неопределённого круга лиц, почему бы не показать, что у тебя всё хорошо.
Далеко не у всех инвесторов горизонт планирования пять лет.
Ну ради бога, их же деньги.
Как я могу знать, на каких условиях донатили "все остальные"?
Ну так если вы не знаете, то о чём вы тогда пишите? На основании чего базируются ваши заявления про них?
Фирма, которая объявляет широкий сбор инвестиций, совсем в другой позиции, чем Амазон
То есть в каких-то "позициях" окупаемость нужна, а в каких-то то нет? В каких-то надо показывать что продаёшь товары/услуги, а в каких-то нет? И как вы их разделяете эти "позиции"?
Если просишь денег у неопределённого круга лиц, почему бы не показать, что у тебя всё хорошо.
Ну судя по тому что деньги им дают, то они показали достаточно чтобы удовлетворить интерес дающих.
На основании чего базируются ваши заявления про них?
Ну так на основании их собственного дисклеймера о "донатах". Не я же эту формулировку придумал.
И как вы их разделяете эти "позиции"?
Если ты активно ищешь деньги, то надо выглядеть хорошо. Если не ищешь -- необязательно. Если Майкрософт получает неслыханные условия (рекуп + половину прибыли сколько-то лет), значит, больше никто не решился вписаться, значит, выглядели они для инвесторов не очень.
то они показали достаточно чтобы удовлетворить интерес дающих.
Не, ну если всем всё норм, то мне тем более :)
Ну так на основании их собственного дисклеймера о "донатах". Не я же эту формулировку придумал.
И что эта формулировка должна конкретно доказывать?
Вот есть Microsoft. Они инвестировали. Они ничего не получают взамен?
И если Microsoft что-то получает, то почему вы решили что все остальные ничего не получат?
Если ты активно ищешь деньги, то надо выглядеть хорошо.
Если ты активно получаешь деньги, то видимо ты выглядишь достаточно хорошо.
Кроме того почему OpenAI нужно "выглядеть хорошо", а тому же Amazon это было не нужно?
Вот есть Microsoft. Они инвестировали. Они ничего не получают взамен?
Эта формулировка не для них. Я не думаю, что OpenAI разговаривает с MS через свой сайт. Шут с MS, он не разорится, я больше думаю о перспективах тех, для кого эта плашка там была. Они не получат ничего, они "донаторы", о чём и сказано.
а тому же Amazon это было не нужно?
Потому что они не искали деньги настолько отчаянно, чтобы предложить единственному крупному спонсору условия "Phase 2. Microsoft receiving 75% of profits until it has recouped its $13 billion investment. Phase 3. OpenAI will pay 49% of its profits to Microsoft until a predetermined cap is reached". Если вы считаете это успехом OpenAI -- ну ок, у всех свои представления.
Эта формулировка не для них
А где в формулировке написано для кого она? Насколько я вижу она как раз таки для всех одна.
Я не думаю, что OpenAI разговаривает с MS через свой сайт.
Я сомневаюсь что они вообще с какими-то инвесторамм через него разговаривают. И это просто очередной PR и маркетинг. Юридической силы это не имеет.
Потому что они не искали деньги настолько отчаянно
Откуда вы знаете насколько отчаянно они искали деньги?
Если вы считаете это успехом OpenAI -- ну ок, у всех свои представления.
Они свои миллиарды получили? Они чем-то о особым рискуют если не взлетит?
Ну продались они по большей части одному инвестору, который продолжает пихать в них деньги. И что?
Насколько я вижу она как раз таки для всех одна.
Ну хорошо, если вы думаете, что OpenAI вешает плашку на сайт, чтобы её там Microsoft прочитал, а иначе никак, пусть будет так.
И это просто очередной PR и маркетинг.
Довольно странный пиар: "вкладывайтесь в нас, но помните, что обратно ничего не получите". Как будто бы враги писали.
Они свои миллиарды получили? Они чем-то о особым рискуют если не взлетит?
Ну я уже сказал, если вы думаете, это успех брать деньги под половину будущих доходов -- ваше право.
Ну хорошо, если вы думаете, что OpenAI вешает плашку на сайт, чтобы её там Microsoft прочитал, а иначе никак, пусть будет так.
Я такого не писал. Это уже вы придумали.
Довольно странный пиар:
Ну да. И что? PR очень часто бывает "странный". Но с другой стороны вам это вполне себе запомнилось и вы постоянно это упоминаете.
Ну я уже сказал, если вы думаете, это успех брать деньги под половину будущих доходов -- ваше право.
Ну так сколько других ИИ фирм смогли получить столько инвестиций и всякие скидки от Microsoft?
И я вам открою страшную тайну: инвестиции обычно дают под часть будущих доходов. Если кто-то из инвесторов даёт деньги равные половине оценки стоимости стартапа, то он получает половину стартапа и половину доходов на все времена.
Ну так сколько других ИИ фирм смогли получить столько инвестиций и всякие скидки от Microsoft?
Ну вот я бы на таких условиях не взял. Впрочем, лично Альтман обогатился, так что завидовать будем.
Вы передачи вроде "Shark Tank" смотрели? И какие там условия бывают? Особенно если речь про инвестиции с высоким риском?
Тут сравнивать бессмысленно: если вы планируете получить доход в течение 5 лет (напр.), это ещё куда ни шло, но с текущими условиями "на 20 лет вперёд, ну или падишах сдохнет" вангую, что никто из обычных инвесторов aka "донаторов" никогда не дождётся прибыли для себя, даже если эта инвестиция чудом выйдет на доходность.
Один единственный частник естественно вряд ли будет в такое инвестировать.
Всякие фонды или даже корпорации вполне себе.
П.С. Ну и в теории кто-то может инвестировать для детей или даже внуков. После рождения инвестируешь, когда ребёнок станет взрослым он как раз получит деньги на учёбу или там на покупку недвижимости.
Люди рассуждают не все, не всегда, а когда рассуждают - часто делают это некорректно. Не вижу каких-то особых отличий.
Спасибо, автор, только ради таких постов и подписан на блог "Искусственный интеллект".
Спасибо за вашу статью и внимание к ChatGPT! Мы всегда ценим конструктивную критику, поскольку она помогает нам улучшать сервис. Мы признаем, что, как и любая технология, ChatGPT имеет свои ограничения, и важно быть внимательным к тем аспектам, где мы можем стать лучше. Ваши замечания полезны для дальнейшей работы, и мы продолжим совершенствовать модель, чтобы она была более точной, полезной и безопасной для пользователей. Благодарим вас за активную позицию и интерес к развитию искусственного интеллекта! /sarcasm
Краткое содержимое этой статьи (https://habr.com/ru/articles/868734/) от ChatGPT.
Статья обсуждает опасности чрезмерного доверия к искусственному интеллекту (ИИ) при принятии решений. Автор показывает, как ИИ может генерировать неверные или вымышленные ответы, которые выглядят правдоподобно, но на самом деле содержат ошибки. Это особенно опасно, когда люди, не имеющие глубоких знаний в области, начинают полагаться на такие системы для принятия важных решений. Статья подчеркивает необходимость осторожности и осознания ограничений ИИ, чтобы избежать ошибок, которые могут возникнуть из-за ложной уверенности в технологиях.
Замечательная статья, комментарии вообще огонь!
с гордой надписью "electronnically tested", которая как бы утверждала что они лучше других.
Разве не были лучше? По крайней мере были проверены что дырки нету.
И что за могучая электроника проверяла, что нету дырки? Датчик давления?
У дырявого электрическое сопротивление меньше.
Электрический дилдо дает ээ.. напряжение
Там же не было написано, проверено могучей электроникой. Датчик давления с обвязкой вполне может быть электроникой.
не поленился, прояндексировал. Проверяют высоким напряжением в развернутом виде. Электроника вообще ни при чем, разве что для принятия решения о выбраковке.
Хотя в ответах и другие варианты есть, дичь полная, типа надувания и наполнения водой.
Познавательно.
Я всё жду, когда люди поймут, что llm не производят смысл, мы сами определяем его присутствие или отсутствие в выводе ботов с llm. Другими словами, мы должны заранее знать ответ на вопрос, который спрашиваем у llm, чтобы его верифицировать. Наверное, чтобы гарантировать (слабо) достоверность ответов, llm она должна учиться так, чтобы воспроизвести в своем обучении весь процесс создания знаний человечеством, в точности -- и мы получим результат в виде осведомленности с учётом известных искажений и ошибок, то есть, результат не очень высокого качества.
Конечно же, llm не мыслит и не является серебряной пулей, несмотря на высказанные в комментариях выше мечты и прочий гроккинг. Llm -- типичный костыль, автомат, не очень хорошо понятно что автоматизирующий (аутсорсинг уверенности?), который рано или поздно перенесет на свой продукт свою стоимость и на этом всё кончится. Но пока корпорации закидывают деньгами будет на слуху, да.
Кожаным мешкам просто неприятно) Хотя никакого отдельного механизма логики в двух килограммах киселя в голове нет, как и всего процесса создания знаний человечеством.
А есть набор довольно плохо обученных нейронок и крошечное ОЗУ, позволяющее дико медленно и с ошибками оперировать логическими правилами с небольшим объемом информации, и требующего костылей, начиная от бумаги с ручкой до гораздо более сложных штук для чего-то большего.
Тут ведь речь не про неприятность, а про опасность отсутствия критического отношения к выдаче ИИ, а так же про то, что отсутствие фильтров может и скорее всего запустит наводнение интернета массой скам-контента, который станет попадать уже на вход обучения новым ИИ.
Ну и да - я согласен с автором в том, что если сам не знаешь ответа, то один источник - не истина в последней инстанции, нужно как минимум воспользоваться несколькими, что, опять же, необходимо и когда информация поступает не от ИИ. Опять же ИИ мне лично помогает быстрее справляться с рутиной; а так же и получать гипотезы, которые потом нужно проверить, но нагенерировать быстрее - с ИИ.
Хотя никакого отдельного механизма логики в двух килограммах киселя в голове нет, как и всего процесса создания знаний человечеством.
Совершенно очевидно, что, учитывая алогичность и обилие иррационального в поведении человека, Вы абсолютно неправы) в этих самых паре кило жирной ткани логики как раз крайне мало, зато есть масса эвристики, которая вообще неописуема и неопределяема в настоящее время.
В любом случае, кожаным мешкам должно быть совершенно всё равно, т.к. при любом исходе спора о логике в киселе, создать машину, производящую прибавочную стоимость попросту невозможно, это всё равно что вечный двигатель создать, и поэтому любые влажные мечты о "сильном ИИ" попросту безосновательны. Нет, мы можем, конечно, натянуть пернатое на сферу, и решить, что то, что мы получаем от "ИИ" -- именно то, что нам и нужно: как раз сейчас этим всем натужно занимаются даже в этом топике, но довольно скоро это нам надоест. Как и всегда)
Написать письмо на три страницы в очередную бюрократическую инстанцию в заданном тоне (отповедь, просьба, и т. п.) — не знаю, что может быть вообще лучше и полезнее этого.
Но код писать, или, там, инвестиции прогнозировать — это я, разумеется, никогда Т9 не доверю.
На это есть старая шутка:
"Компьютеры бесподобны - за одну минуту они могут совершить такую ошибку, на которую у сотни человек уйдет месяц".
И другая - "У сверхпрограммы будут сверхглюки".
В общем ничего принципиально не поменяется - человеки тоже ошибаются и глючат. А иногда даже целенаправленно врут и искажают инфо. Кому больше верить - это еще вопрос.
А теперь представьте себя ну скажем джуном-программистом, попросившим написать функцию чуть сложнее "сортировки пузырьком", или начинающим менеджером, попросившим проанализировать динамику продаж в сочетании с расходами на рекламные кампании.И в ответ хваленый AI-инструмент, хорошо подумав, выдает некий результат, который вы с полпинка не можете сами оценить.
Джун, если глупый, то сделает пул-реквест и если AI накосячил - получит по башке от того, кто будет ревьюить. Если умный, то будет разбираться в коде, пока его досконально не разберет и не поймет правильно ли он решает задачу, или нет.
В таком ключе AI вряд ли ускорит работу джуна. В какой-то мере он может ему помочь вырасти, разбирая сгенерированный код, хотя, подозреваю, что джун вырастет быстрее если будет сам его писать. Однако я точно знаю, что AI может вполне ускорить работу сеньера генерируя код под простые задачи, типа, feature flag removal, где сеньеру будет достаточно беглого взгляда, чтоб понять, сделано правильно, или нет.
Иными словами, вы неправильно позиционируете текущий AI. Это не оракул, способный решить вам задачу, которую вы не понимаете. Это джун, помогающий сеньеру быстро решать рутинные задачи не требующие большого ума.
так это не я его так позиционирую, это так сейчас везде подается.
А вот как инструмент, помогающий быстро решить какую-то фигню типа "как там у нас окошко по центру CSSом расположить?" - вполне можно.
Ну не только. Я активно пользуюсь и генерацией гипотез в том, в чем не разбираюсь или разбираюсь слабо - ИИ генерит их быстро и так же быстро, запросами дальнейшими, можно корректировать эти гипотезы и с помощью ИИ "доводить их до ума". Но в целом - да, использование ИИ никак не избавляет от необходимости думать самому : )
«Автор, браво! Читаешь вашу статью — и ощущение, будто вы соревновались с AI, кто сделает больше логических кульбитов за минуту. AI ошибается, говорите? Спасибо за открытие! Если бы он не ошибался, его бы давно назвали не “искусственным”, а “идеальным”. Но вы, конечно, правы: доверять без оглядки нельзя — ни машине, ни человеку. Особенно, если человек пишет статью, сравнивая AI с презервативами.
Кстати, ваша идея про “электронно протестированный” AI — это гениально. Предлагаю внедрить новый ГОСТ: если модель не прошла ваши тесты на знание русских народных стихов, запрещаем её к использованию. Ведь, как мы знаем, от того, как AI рифмует про собаку, напрямую зависит успех рекламной кампании.
А ещё про начальников и “руководящие указания” — остро, но как-то знакомо. У вас явно был личный опыт, а мы тут всё на AI гоняем. Может, вместо статьи про “неправильность решений” стоит написать что-то вроде “Почему начальники хуже AI?” Это, поверьте, найдёт горячий отклик у вашей аудитории.
В общем, спасибо за эмоции, но вот за конструктив — явно не к вам. Пока AI хоть что-то считает, вы тут себе надумали проблему из пустоты. Зато про Ивана Андреевича Крылова повеселили, почти как AI. Ждём ваш следующий шедевр, например, о том, как машина не умеет готовить борщ!»
А вот кого-то задело ))
Возможно, того самого начальника, решившего внедрить AI в своем хозяйстве.
Ладно когда AI ответил на ваш запрос,... я знаю, остальные люди научаться что AI может отвечать фигню, главное чтобы было понятно что это именно AI. Хуже когда будет непонятно (как уже сейчас в гугле - сначала выдается ответ сгенерированный AI) где ответ AI, а где результат поиска по реальным документам. А вот когда объем инфы, сгенерированной AI станет настолько большим (а есть ощущение что это уже близка), что даже классическим поиском будут находится только галлюцинации - вот тогда будет вообще весело...
У того же chatGPT можно в "индивидуальной информации" указать чтобы он всегда давал ссылки на оригинальные источники. И это вполне себе работает.
И не вижу проблем добавить такую же опцию и для поиска через ИИ. Другое дело что такие вещи совсем не обязательно будут бесплатными или точнее не обязательно будут доступны в бесплатных версиях.
AI-инструмент, хорошо подумав, выдает некий результат, который вы с полпинка не можете сами оценить.
Ну так поэтому для GenAI и LLM существует целый ряд задач, которые они хорошо решают, как помощник для человека. Есть хороший принцип, описанный в этой статье на Medium:
Generative AI is most helpful when assisting humans by solving problems where solutions are Hard to Make, but Easy to Check (HMEC).
То есть, все эти LLM помощники хороши, например там, где нужно перелопатить огромную кучу документов, чтобы найти ответ. Но как только ответ найден - проверить его легко - человеку достаточно посмотреть на документ, найденный нейросетью (работает только с сетями, предоставляющими ссылки). Это очень хорошо работает в сферах с большим количеством документов, например, юриспруденции, медицине и т.п. Людям там понадобится гораздо больше времени, чтобы что-то найти, и не факт, что они что-то не упустят.
LLM - это инструмент, и странно считать, что чат-бот широкого профиля решит за нас все задачи. Нужно учить людей им пользоваться и понимать как и что он решает хорошо, а что не очень. В конце концов, люди и простой гугл поиск используют для того, чтобы находить доказательства плоской Земли, написанные другими людьми, то есть это не проблема AI.
Проблема не в том, что AI ошибается и галлюцинирует by design. Проблема в том, что он не может остановиться и не может принять решение, что он не способен решить задачу в принципе и сообщить об этом пользователю. Он будет до бесконечности извиняться и "исправлять" своё решение, каждый раз выдавая что-то типа "да ты прав, тут ошибка, вот исправленное решение", и уверенно генерировать очередную порцию правдоподобного бреда с тестами, которые не проходят, с "фактами", которые не существуют. И он никогда не остановится. Вот в этом проблема.
Автор открыл для себя галлюцинации больших языковых моделей...
Кстати, знаете что напоминают эти галлюцинации? Сон.
Во сне так: вы внезапно сидите в кафе, к которому по улице бежит толпа вооруженных людей (таков промт), и понимаете что надо сесть в машину (рядом появляется припаркованный внедорожник) и уехать, но не можете, потому что ключи у бармена на стойке (не спрашивайте почему - так получилось) - и теперь вы уже решаете проблему как забрать ключи у бармена, забыв про людей, машину, планы уехать и т.д.
Ассоциация за ассоциацией, мозг сам себе создает новые промты, включая в сон всё недавно увиденное и услышанное. В каждый отдельный момент всё кажется логичным (бармен не отдает ключи? вызываем полицию / стреляем из автомата / покупаем / крадем / приходим ночью когда он спит) - а то что в целом получается бред - ну это же сон.
Видимо, мозгу сон нужен чтобы тренировать свою нейросеть.
По аналогии - LLM сейчас "спят", причем сон у них разорванный, выдача не становится новым промтом, сюжеты не связаны в цепочки.
Интересно, что получилось бы, если сделать так же с ними - проснутся ли когда-нибудь, или так и будут галлюцинировать?
AI, который всё за нас решит