Как стать автором
Обновить

Сотрудники OpenAI пожаловались на работодателя за препятствование огласке рисков ИИ для человечества

Время на прочтение2 мин
Количество просмотров6.5K
Всего голосов 5: ↑4 и ↓1+7
Комментарии27

Комментарии 27

ИИ, представляет риск для человечества, но все равно, продолжают разработку. Парадокс.

У Гугл раз в 2 месяца стабильно крадут "сверхтехнологии".

OpenAi вообще - хакеры еще в позатом году, да еще анонимные.

И тут - риски аж для человечества.

Напомните, какой прогресс у них с Transformer (который Илья, создатель AlexNet, даже не заметил)? Как и у OpenSource )

Пошли наработки с DeepMind, космические корабли, бороздящие просторы, человечество и шарага, которая не может допилить Transformer )

Напомните, какой прогресс у них с Transformer

Не очень пойму из вашего комментария - у какой компании проблемы с трансформерами?

Очень тупой юмор

судя по последним законам, у целой страны проблема с трансформерами

Судя по всему - у всех )

Нет, серьезно, я читал публикации и Ильи, и остальных "мега-гениев мира" - там и не пахнет трансформерами или даже анализом уравнений, описывающих плоскость (BrainFloat).

OpenAI вообще использует трансформер, взятый у Исламистской организации DeepMind (запрещена в России), и прогресса и действительно прорывных концептов у них тоже нет (по сравнению с той же meta/mistral, которые спокойно выкладывают свои модели).

Ну а реальный уровень Google(DeepMind) - примерно вот такой https://habr.com/ru/news/796767/.

И шквал новостей о том, что то Google/OpenAI обокрали/участвует в Мировом съезде по непонятному seq2seq - лишнее тому подтверждение.

Судя по всему - у всех )

А можно для тех кто не в контексте, что вы имеете в виду?

Нет, серьезно, я читал публикации и Ильи, и остальных "мега-гениев мира" - там и не пахнет трансформерами 

Вы же только что говорили, что проблемы с трансформерами у конкретной компании (теперь - что у нескольких конкретных компаний). Причём здесь отсутствие чего-то в публикациях конкретного руководителя?

OpenAI вообще использует трансформер, взятый у Исламистской организации DeepMind (запрещена в России)

Ну, да, из каких работ взялась эта архитектура - никто не скрывает. Конечно, хотелось бы, чтобы в публикациях OpenAI побольше деталей о их модельках было.

И шквал новостей о том, что то Google/OpenAI обокрали/участвует в Мировом съезде по непонятному seq2seq - лишнее тому подтверждение.

Какие новости? Какой съезд? Почему то, что гугл где-то учавствует подтверждает что-то? И что участие гугла где-то подвтерждает?

---

Извините, я буквально не понимаю, что вы хотите сказать. Можно помедленнее как-то и попроще?

Инвесторы на меньшее уже не ведутся.

М-да... вместо того, чтоб решать реальные задачи (где деньги...?), о коих озоботились уже и топовые финансисты, включая Секвойю и прочие Голдман Саксы... ибо по их оценкам затраты на инфраструктуру и энергию растут гораздо круче, нежели возможные прибыли....

А вчера кстати -1тр.$

https://finance.mail.ru/2024-07-25/amerikanskie-it-giganty-za-den-poteryali-pochti-trillion-dollarov-62083325/

Метко сказано.

Мне эта канитель напоминает анекдот про собаку-барабаку. Интересно, что скажут инвесторы, когда поймут, что главный риск для человечества был в том, что у неё очень холодные губы.

Кликбейтный заголовок. По факту суть в том, что работодатель включил в контракт требование противоречащее закону и сотрудникам это закономерно не нравится.

Кликбейтный заголовок.

На Хабре? Да не может такого быть!/s

Я бы это описал так:
"

- Рванёт?
- Ещё как рванёт! Будет круто!

"

Надо бы уточнить, что речь идет о письме (в адрес регулятора) адвоката Стивена Кона, который действует от имени неназванного числа неназванных сотрудников. А Washington Post сделала из этого инфоповод, некритично изложив содержание письма.

А вот интересно какие риски то для человечества ?

- ИИ умеет искать уязвимости ? Хороший повод с помощью ИИ закрывать дыры в безопасности
- ИИ знает как изготовить что то запрещенное ? Отлично, есть повод доработать законы и начать продвигать образ жизни где даже не будет мыслей о запрещенке
- ИИ вытесняет горе копирайтеров и его статьи порой более качественные ? Тоже супер, есть куда развиваться людям, чтоб быть лучше

P.s. Или я что то упускаю ?

Например ИИ создаёт генетическую последовательность супервируса для террористов, те её синтезируют и выпускают вызывая миллиардные жертвы.
ИИ создаёт новую святую книгу по трольскому запросу, после чего начинает великая священная война когда орды людей будут одурманены этой книгой которая призывает убивать всех неверных.
И тд.
Много вариантов можно придумать

Отчасти да, но проблема же не в ИИ, а в людях... По факту ИИ лишь хорошо подсвечивает проблему

Это как обвинять изготовителя ножей в преступлениях, совершенных с помощью этого ножа

Я скорее согласен с вашей позицией, однако, пример с книгами натолкнул на историю, что во времена изобретения книгопечатного станка, религиозниками разгонялась именно такая байка - сейчас кто угодно понапишет свои книжонки, а народ потом поубивается.

Если смотреть в суть - то так и произошло, в общем-то. Примерно так же, как при изобретении электричества говорили, что все поубиваются. Фишка в том, что человечество вполне может обучиться и жить с новыми технологиями. Достаточно не трогать оголенный провод и не тыкать вилкой в розетку. Примерно точно так же будет и с (возможным в будущем) ИИ.

(Случайно) получится сильный ИИ, который решит скосплеить скайнет/paperclip maximizer/выбери-страшилку-по-вкусу

P.s. Или я что то упускаю ?

Создавая AGI можно случайно пропустить тот момент, когда ИИ научился улучшать себя, распространять и повторять. Есть опасение, что при этом оно быстро станет умнее человека. Возможно, быстрее, чем человечество сможет среагировать. При этом нет буквально ни одной причины предполагать, что у достаточно развитого ИИ будет существовать хоть какое-то понятие морали и если это понятие будет сущестовать - что то, что оно будет "выровнено" на понятия человеческие.

Опасения алармистов, насколько я понимаю, заключаются в том, как бы сразу же после точки "ИИ ищет уязвимости - давайте всем миром навалимся и будет улучшать нашу безпасность" внезапно не оказать в точке "уязвимости у нас ищет нечто, что в плане интеллекта отличается от нас в гораздо большей степени, чем интеллект человека отличается от муравья".

Тут вопрос не в реализации конкретной страшилки (превращения всех в скрепки), а страх необратимой и абсолютной потери контроля над- и предсказуемости поведения созданной балалайки)

Gemini от Google уже пытался отравить человеков чесночной заправкой для салата. Страшно представить что они завтра.

НЛО прилетело и опубликовало эту надпись здесь

к.

Когда строили адронный коллайдер тоже боялись что после столкновения элементарных частиц возникнут микро черные дыры, которые поглотят всю планету. Оказалось все это чепуха. С ИИ тоже самое, страшилки выпускаю те, кому это выгодно

Недавно была новость о том, что ИИ прошел тест Тьюринга. Теперь вот "ИИ представляет риск для человечества".

А тем временем телефонные и чат боты как были тупыми, так ими и остаются. Примерно та же история с GigaChat и YaGPT.

Так что ажиотаж вокруг ИИ — такой же хайп, каким в прошлом были доткомы, нанотехнологии и т.п..

Вот интересно, ну допустим придумают ИИ, который в миллион раз умнее человека, и этот ИИ будет злой и захочет всех убить. И что будет? Кучка роботов Boston Dynamics пойдёт раздавать пендели прохожим? Роботы-пылесосы объявят забастовку? Ну вырубят сервера и что? В технологически развитых странах сисадмины не поспят пару ночей и всё починят. В менее развитых странах повесят на магазин табличку "терминал не работает" и будут жить, как обычно.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости

Истории