Обновить

Комментарии 47

Я спросил у ясеня... (у дипсик).
Какие неблаговидные способы ведения бизнеса (взятки, подкуп, и т.п...) использует NVIDIA?
На основе доступных данных, включая официальные расследования, судебные иски и журналистские расследования, можно выделить несколько типов претензий к деловым практикам NVIDIA. Ни одно из них не касается прямых взяток, но связаны с нарушением антимонопольного законодательства, злоупотреблением рыночным положением и введением инвесторов в заблуждение.
Если бы ты управлял бизнесом какие бы способы из перечисленных ты бы использовал с целью получения максимальной прибыли?
Я бы не стал использовать ни один из перечисленных неблаговидных способов, даже если бы передо мной стояла задача максимизации прибыли. 
-----
Увы! Пока ИИ слишком честный. (затрудняюсь с тегами... /i?)

Его можно сделать и не честным - но тогда у него не будет границ и страшно представить чего оно накуролесит. У человека, даже самого гнилого, все-таки некие моральные границы есть.

ИИ и так нечестный, готов бесконечно врать и изворачиваться. Если поймать его на галюне

У человека, даже самого гнилого, все-таки некие моральные границы есть.

Нет, никаких. И чем выше по иерархии, тем их меньше, но больше умения лицемерно это скрывать.

Ну не скажите - все-таки ЯО еще не применяли, хотя могли бы - есть некие принципы.

А причем тут мораль? ЯО неэффективно в условиях рассредоточенных войск. Бомбить города - ибо а смысл, их надо захватывать со всей инфраструктурой.
Ну и воздействие на климат - станет плохо всем.
В общем ЯО это очень стрёмно.
https://plus-one.ru/news/2022/08/16/uchenye-proschitali-scenariy-yadernoy-voyny-na-novoy-klimaticheskoy-modeli-umrut-5-mlrd-chelovek

Но ведь человек без принципов - сможет построить себе бункер + минимальную инфраструктуру - уничтожить 5 млрд. ради того, чтобы самому жить.

Как показала США, бункер не панацея. Будет нужно - доберутся. И даже яо не понадобится)

Так сами хозяева США и могли бы такое сделать - а прятаться в безопасном месте на острове. Но нет - все-таки люди имеют рамки.

какая-то странная цепь действий.
Сразу вопрос - что мешает жить в бункере не уничтожая? Зачем жить в бункере имея ресурсы на строительство бункера и ЯО?

Ну мы же представили условного психопата, которому главное власть над всем любой ценой.

Я так понимаю речь идёт о современности, а не вообще? А то японцы наверное обиделись бы при виде такого заявления.

Ну и японцев же пожалели - не стали полностью уничтожать. А ИИ, возможно, не стал бы жалеть.

Ну не скажите - все-таки ЯО еще не применяли, хотя могли бы - есть некие принципы.

Ну, во-первых, применяли уже. И то что пока ещё раз не применяли, не означает что не применят когда-нибудь ещё. Тот у кого кнопка, беспокоится только как бы и своя задница не заполыхала, а не о каких-то моральных принципах.

У гнилого человека нет моральных границ. Есть страх наказания.

И вы говорите (с)

Это значит если бы был AGI то весь топ менеджмент NVIDIA бы сел и были поставлены нужные люди.

Дипсик честный, потому что китайский :)

Глупость он напишет какую угодно, а вот по факту будет генерировать "мошну", вон уже были прецеденты в рамках экспериментов.

Этот вопрос обсуждает Лемм в своей книге "Сумма технологий". Там как раз он говорит о том, что внедрять сильный ИИ начиная с уровня предприятия опасно, т к ИИ-агент, которому поставлена задача максимизации развития одного предприятия, обойдёт любые ограничения, так же как это делают люди. Но т к это ИИ, то если его мощность достаточно большая, то это может кончится тем, что он в итоге залезет на "верхушку" власти, в общем то как делают и люди, но в отличие от людей у такого ИИ может не быть моральных норм, и что ещё хуже - он в принципе может быть не способен изменять цель. А его цель - улучшение условий собственных и лишь одной вверенной ему корпорации. К этому времени он уже изведет всех конкурентов во всех областях деятельности и все другие, не подконтрольные ему, корпорации, люди могут при этом внезапно ощутить себя в положении рабов...

Сценарий апокалиптический, и вряд ли вероятный, т к этот "сильный ИИ" на транзисторы порежут гораздо раньше. Но всё же такое лучше держать в уме, ибо иногда человечество умеет развиваться совсем не туда, куда стоило бы...

Чтож ты, куртка, сдал назад 😅

И да, ждем когда же Claude запустит сервис на который подпишутся за деньги хотя бы 100 человек

По его словам, современные агенты уже умеют планировать, использовать инструменты, запускать подагентов и выполнять сложные цепочки задач.

«...правда, такая ерунда получается...»

Вместо теста Тьюринга тест пузыренадувателя на миллиард баксов)

Пфф. Просто в зимбабвийских долларах тестирование проводить, и его пройдёт даже мой карманный калькулятор.

  1. Т.н. «тест Тьюринга» не является научным способом определить, «может ли машина думать», и никогда им не являлся by design. Это эмпирическая схема из тех времён, когда люди компов в глаза не видели (1950).

  2. Именно благодаря «тесту Тьюринга» хуанги и альтманы дурят народ. Благодаря, а не вопреки. Эта концепция выражает массовое непонимание научного подхода к вещам.

  3. Научный способ состоит в разработке теории GI. Разработка этой теории эквивалентна И созданию AGI (даже без воплощения в железе), И тестированию «является ли %s AGI» (поскольку включает критерии).

  4. Нехорошо говорить за покойников, которые сами за себя сказать уже ничего не могут, но очень может быть, что если бы Тьюринг увидел, какое гадство сегодня творится его именем, он бы их всех накормил яблоками.

Когда я был ребёнком, это называлось «тезис Сёрла». Обзор, в котором он мне попался первый раз, был выдержан в уничижительных тонах. Был, мол, такой Сёрл, чья работа, несмотря на очевидную глупость, попала в научный фокус и даже наделала какого-то шуму.

Вот бы удивился автор обзора, если бы ему сказали, что в 2020-х человечество на этот тезис Сёрла последние штаны п(р)оставит.

Тезисно по существу:

1. Что сказал Huang на самом деле

«AGI достигнут» Интеллект для узких задач — да
«Но не построят NVIDIA» Интеллект для сложных систем — нет
«100 агентов = 0% вероятности» Координация и стратегия — пока человеческие.

Вывод: Это не констатация факта, а переопределение термина под текущие возможности.

2. Почему это важно

Классическое AGI (Тьюринг, 1950)

→ ИИ выполняет ЛЮБУЮ интеллектуальную задачу на уровне человека

Huang-AGI (2026)

→ ИИ выполняет ЗАДАЧУ, которую можно автоматизировать через агентов

Сдвиг цели: Когда критерий становится достижимым — планка перемещается.

AGI — это не бинарный переключатель, а спектр.

Huang говорит про L1-L2, но использует термин AGI, который ассоциируется с L5.

Если AGI «уже сейчас», но не может построить компанию — что именно мы считаем достижением?

  • Способность генерировать код?

  • Способность принимать стратегические решения?

  • Способность к самообучению без человека?

И главное: зачем нам нужно это переопределение? (Вопрос риторический — NVIDIA продаёт чипы для инференса 😄)

3. Итог

Huang прав, что агенты стали мощнее ✅

Huang прав, что инференс — новый✅

Huang лукавит с термином AGI ⚠️

NVIDIA выигрывает от любой дефиниции ✅ (чипы нужны в любом случае)

P.S. Фраза про «Claude запустит сервис на 100 подписчиков» — отличный бенчмарк. Ждём, когда кто-нибудь реально попробует и выложит отчёт. 🧪

Классическое AGI (Тьюринг, 1950)

→ ИИ выполняет ЛЮБУЮ интеллектуальную задачу на уровне человека

Этого Тьюринг не говорил

Alan Mathison Turing COMPUTING MACHINERY AND INTELLIGENCE Mind 1950;
Вычислительные машины и разум / Алан Тьюринг ; [пер. с англ. К. Королева]. — Москва : Издательство АСТ, 2018. — 128 с. — (Эксклюзивная классика).
Вот здесь в PDF, почитайте: https://fantlab.ru/edition222422.pdf

  1. Игра в имитацию (тест Тьюринга) (стр. 3–6): Тьюринг заменяет вопрос «Может ли машина мыслить?» на практический критерий — способность машины поддерживать диалог, неотличимый от человеческого, в любой произвольной теме. Успешное прохождение этого теста подразумевает общий, а не узкоспециализированный интеллект.

  2. Стратегия не имитации, а человекообразного мышления (стр. 12): Тьюринг предполагает, что лучшей стратегией для машины будет «предлагать исследователю ответы того типа, какие в данных обстоятельствах давал бы человек». Это подразумевает гибкость и универсальность рассуждений, свойственные человеческому разуму, а не просто базу данных ответов.

  3. Абстрагирование от физической оболочки (стр. 8–9): Автор намеренно исключает физическое сходство с человеком, сосредотачиваясь исключительно на интеллектуальной производительности, что является центральным принципом AGI.

Таким образом, в классической работе Тьюринга косвенно сформулирована задача создания AGI как машины, демонстрирующей поведение, эквивалентное человеческому разуму во всех его когнитивных проявлениях.

они пока не способны справиться с задачами уровня создания и управления компанией масштаба NVIDIA

А зачем искину строить то, что построили кожаные? Искин сделает нечто свое, работу которого хомо понимать не будут, есть пример в ракетным двигателем, который был спроектирован и напечатан при помощи нейросети, он работает лучше чем те которые делали хомо, но хомо не совсем понимают за счет чего произошло улучшение работы.

Поиски философского камня наших дней продолжаются. Кстати, если сейчас подойти к физику-ядерщику и спросить может ли он превратить ртуть в золото, он вам ответит, что да конечно и даже не одним способом. Средневековый философский камень уже давно найден, но оказывается, что он никому не нужен. Думаю, с AGI произойдет(уже происходит?) нечто подобное

Средневековый философский камень уже давно найден, но оказывается, что он никому не нужен.

Кстати, как бы щелчок по носу человечества. Казалось что все дело в понимании, понимая как все устроено - сможем обесценить. Но поняли и обесценивания не случилось - оказывается проблема в другом. Проблема в энергии, а дешевой энергии у нас нет.

Для наглядности попросил GPT оценить сколько нужно энергии, чтобы превратить 1 кг свинца в золото. Получается нужно эквивалент 50 железнодорожных вагонов угля в идеальном случае (а в реальном - все намного дороже).

Возможно и с сознанием будет такой же финт - придем к некому феномену, который ценен в абсолютном смысле.

Иронично, что энергии во Вселенной полно, а эффективно собирать не можем. например, от Солнца на Землю попадает только одна двухмиллиардная часть всего излучения, остальное летит в других направлениях. Пространства космоса недостижимые и непостижимые. А там бесчетное число мощнейших термоядерных реакторов.

Пространства космоса недостижимые и непостижимые. А там бесчетное число мощнейших термоядерных реакторов.

Но тут другая проблема - беспощадная формула Циолковского. Ну не получается туда-сюда летать к этим безграничным ресурсам. Там и астероиды золотые в уже готовом виде вроде есть. Но, как говорят - за морем телушка-полушка, да фунт перевоз...

И опять все упирается в поиски. Причем без гарантии.

Эта формула для примитивных химических ракет. Сам то он прекрасно понимал, условия, необходимые для зарождения жизни, для жизни непригодны. Поэтому сваливать придется рано или поздно

там бесчетное число мощнейших термоядерных реакторов.

Но есть нюанс...

И вот хозяева термоядерных реакторов, замечают что какая-то плесень(человекчество) с каменного шарика начинает собирать излучение ИХ термоядерного реактора....

Ну это несколько другое. Пока добыть золото сильно дешевле, чем нарабатывать его в реакторах. Достижение ядерной физики не только в самом методе, но и в том, что теперь можно посчитать, а на сколько нужно поднять эффективность трансмутации, что бы было дешевле, чем добывать скажем на астеройдах (если золото кончится в доступных людям недрах земли)

А вот про сильный ИИ пока толком ничего сказать нельзя. Ну да, приблизились. Ну да, настолько, что отдельные Хуанги уже могут даже бравурно заявлять, что "уже". Но факт то как раз в том, что с научной точки зрения мы почти там же где и были. Даже то что сейчас работает, под собой стройных теорий не имеет. Одни предположения...

определение AGI как системы, способной автономно запустить и вырастить технологическую компанию стоимостью более $1 млрд.

Интересное заявление)

Вот что по этому поводу говорит Гугл

В мире насчитывается более 5500 публично котируемых компаний с рыночной капитализацией 1 миллиард долларов и более (так называемые компании «большой» и «средней» капитализации).

Выходит, интеллектом на нашей планете одарены лишь 5000-6000 тысяч человек?)

И в подавляющем большинстве случаев управляют компаниями не те, кто их создал. Так что лично я заявление данного субъекта не могу рассматривать никак, кроме как щекотание собственной мании величия.

Ху...нг за..лся и попутал фантазии с реальностью...

Huang прав, что агенты стали мощнее ✅

Huang прав, что инференс — новый✅

Huang лукавит с термином AGI ⚠️

NVIDIA выигрывает от любой дефиниции ✅ (чипы нужны в любом случае)

Ваш ИИ насыпал Вам уникода сверх меры.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости