Pull to refresh

Comments 27

ИИ, представляет риск для человечества, но все равно, продолжают разработку. Парадокс.

У Гугл раз в 2 месяца стабильно крадут "сверхтехнологии".

OpenAi вообще - хакеры еще в позатом году, да еще анонимные.

И тут - риски аж для человечества.

Напомните, какой прогресс у них с Transformer (который Илья, создатель AlexNet, даже не заметил)? Как и у OpenSource )

Пошли наработки с DeepMind, космические корабли, бороздящие просторы, человечество и шарага, которая не может допилить Transformer )

Напомните, какой прогресс у них с Transformer

Не очень пойму из вашего комментария - у какой компании проблемы с трансформерами?

Очень тупой юмор

судя по последним законам, у целой страны проблема с трансформерами

Судя по всему - у всех )

Нет, серьезно, я читал публикации и Ильи, и остальных "мега-гениев мира" - там и не пахнет трансформерами или даже анализом уравнений, описывающих плоскость (BrainFloat).

OpenAI вообще использует трансформер, взятый у Исламистской организации DeepMind (запрещена в России), и прогресса и действительно прорывных концептов у них тоже нет (по сравнению с той же meta/mistral, которые спокойно выкладывают свои модели).

Ну а реальный уровень Google(DeepMind) - примерно вот такой https://habr.com/ru/news/796767/.

И шквал новостей о том, что то Google/OpenAI обокрали/участвует в Мировом съезде по непонятному seq2seq - лишнее тому подтверждение.

Судя по всему - у всех )

А можно для тех кто не в контексте, что вы имеете в виду?

Нет, серьезно, я читал публикации и Ильи, и остальных "мега-гениев мира" - там и не пахнет трансформерами 

Вы же только что говорили, что проблемы с трансформерами у конкретной компании (теперь - что у нескольких конкретных компаний). Причём здесь отсутствие чего-то в публикациях конкретного руководителя?

OpenAI вообще использует трансформер, взятый у Исламистской организации DeepMind (запрещена в России)

Ну, да, из каких работ взялась эта архитектура - никто не скрывает. Конечно, хотелось бы, чтобы в публикациях OpenAI побольше деталей о их модельках было.

И шквал новостей о том, что то Google/OpenAI обокрали/участвует в Мировом съезде по непонятному seq2seq - лишнее тому подтверждение.

Какие новости? Какой съезд? Почему то, что гугл где-то учавствует подтверждает что-то? И что участие гугла где-то подвтерждает?

---

Извините, я буквально не понимаю, что вы хотите сказать. Можно помедленнее как-то и попроще?

Инвесторы на меньшее уже не ведутся.

М-да... вместо того, чтоб решать реальные задачи (где деньги...?), о коих озоботились уже и топовые финансисты, включая Секвойю и прочие Голдман Саксы... ибо по их оценкам затраты на инфраструктуру и энергию растут гораздо круче, нежели возможные прибыли....

А вчера кстати -1тр.$

https://finance.mail.ru/2024-07-25/amerikanskie-it-giganty-za-den-poteryali-pochti-trillion-dollarov-62083325/

Метко сказано.

Мне эта канитель напоминает анекдот про собаку-барабаку. Интересно, что скажут инвесторы, когда поймут, что главный риск для человечества был в том, что у неё очень холодные губы.

Кликбейтный заголовок. По факту суть в том, что работодатель включил в контракт требование противоречащее закону и сотрудникам это закономерно не нравится.

Кликбейтный заголовок.

На Хабре? Да не может такого быть!/s

Я бы это описал так:
"

- Рванёт?
- Ещё как рванёт! Будет круто!

"

Надо бы уточнить, что речь идет о письме (в адрес регулятора) адвоката Стивена Кона, который действует от имени неназванного числа неназванных сотрудников. А Washington Post сделала из этого инфоповод, некритично изложив содержание письма.

А вот интересно какие риски то для человечества ?

- ИИ умеет искать уязвимости ? Хороший повод с помощью ИИ закрывать дыры в безопасности
- ИИ знает как изготовить что то запрещенное ? Отлично, есть повод доработать законы и начать продвигать образ жизни где даже не будет мыслей о запрещенке
- ИИ вытесняет горе копирайтеров и его статьи порой более качественные ? Тоже супер, есть куда развиваться людям, чтоб быть лучше

P.s. Или я что то упускаю ?

Например ИИ создаёт генетическую последовательность супервируса для террористов, те её синтезируют и выпускают вызывая миллиардные жертвы.
ИИ создаёт новую святую книгу по трольскому запросу, после чего начинает великая священная война когда орды людей будут одурманены этой книгой которая призывает убивать всех неверных.
И тд.
Много вариантов можно придумать

Отчасти да, но проблема же не в ИИ, а в людях... По факту ИИ лишь хорошо подсвечивает проблему

Это как обвинять изготовителя ножей в преступлениях, совершенных с помощью этого ножа

Я скорее согласен с вашей позицией, однако, пример с книгами натолкнул на историю, что во времена изобретения книгопечатного станка, религиозниками разгонялась именно такая байка - сейчас кто угодно понапишет свои книжонки, а народ потом поубивается.

Если смотреть в суть - то так и произошло, в общем-то. Примерно так же, как при изобретении электричества говорили, что все поубиваются. Фишка в том, что человечество вполне может обучиться и жить с новыми технологиями. Достаточно не трогать оголенный провод и не тыкать вилкой в розетку. Примерно точно так же будет и с (возможным в будущем) ИИ.

(Случайно) получится сильный ИИ, который решит скосплеить скайнет/paperclip maximizer/выбери-страшилку-по-вкусу

P.s. Или я что то упускаю ?

Создавая AGI можно случайно пропустить тот момент, когда ИИ научился улучшать себя, распространять и повторять. Есть опасение, что при этом оно быстро станет умнее человека. Возможно, быстрее, чем человечество сможет среагировать. При этом нет буквально ни одной причины предполагать, что у достаточно развитого ИИ будет существовать хоть какое-то понятие морали и если это понятие будет сущестовать - что то, что оно будет "выровнено" на понятия человеческие.

Опасения алармистов, насколько я понимаю, заключаются в том, как бы сразу же после точки "ИИ ищет уязвимости - давайте всем миром навалимся и будет улучшать нашу безпасность" внезапно не оказать в точке "уязвимости у нас ищет нечто, что в плане интеллекта отличается от нас в гораздо большей степени, чем интеллект человека отличается от муравья".

Тут вопрос не в реализации конкретной страшилки (превращения всех в скрепки), а страх необратимой и абсолютной потери контроля над- и предсказуемости поведения созданной балалайки)

Gemini от Google уже пытался отравить человеков чесночной заправкой для салата. Страшно представить что они завтра.

UFO just landed and posted this here

Когда строили адронный коллайдер тоже боялись что после столкновения элементарных частиц возникнут микро черные дыры, которые поглотят всю планету. Оказалось все это чепуха. С ИИ тоже самое, страшилки выпускаю те, кому это выгодно

Недавно была новость о том, что ИИ прошел тест Тьюринга. Теперь вот "ИИ представляет риск для человечества".

А тем временем телефонные и чат боты как были тупыми, так ими и остаются. Примерно та же история с GigaChat и YaGPT.

Так что ажиотаж вокруг ИИ — такой же хайп, каким в прошлом были доткомы, нанотехнологии и т.п..

Вот интересно, ну допустим придумают ИИ, который в миллион раз умнее человека, и этот ИИ будет злой и захочет всех убить. И что будет? Кучка роботов Boston Dynamics пойдёт раздавать пендели прохожим? Роботы-пылесосы объявят забастовку? Ну вырубят сервера и что? В технологически развитых странах сисадмины не поспят пару ночей и всё починят. В менее развитых странах повесят на магазин табличку "терминал не работает" и будут жить, как обычно.

Sign up to leave a comment.

Other news