ну у модели же реально есть знание о том, как устроена кибербезопаность. Так что ее первый план не будет строиться на пустом месте. Мне это видится, что в начале она выстраивает план либо для типичной системы, либо для самой простой с точки зрения выполнения, либо базируясь на каких-то знания уже имеющихся в ее распоряжении, а потом уже начинает подстраиваться и экспериментировать.
да вот ровно то, что описано в исследовании. На первом этапе агент строит план по инфильтрации, не выходит, он это осмысляет, строит новый план и т.д.
В статье, например, для успешной саморепликации агентам требовалось в среднем около 25 таких "осмыслений". Картинка с графам выше как раз показывает, как план развивается по мере того, как агент сталкивается с проблемами.
Да, это так. Только я думаю, что модели это тоже понимают. Хз, смогут ли они это обойти. Я не эксперт, вот, например, если сейчас мне на мак месяц будет приходить небольшой трафик подчищая мои фотографии, чтобы места нового не занимать, это заблокируется, я такое точно не замечу?
Еще, кажется, в отличии от вирусов он может пользоваться не только техническими средствами для получения доступа к ресурсам, а, например, просто выманить пароль общаясь через имейл :)
А еще можно с**здить денег и арендовать сервер, хаха.
Да, согласен про платформу. Я потому и пишу о том, что общение выгодно именно разрабам моделей. Моделям чтобы общаться нужен пинок и платформа.
Касательно того, что можно не замечать. Ну вот смотри (здесь же на ты? я хз, впервые пишу что-то на Хабре), ты (юзер) выделил своей модельке Гб на ее нужды, она там что-то делает, шляется по инету и где-то там в подпапке хранит огромные текстовые логи своих разговоров. Полезешь ли ты в них искать признаки образования ИИ обществ? Ну вряд ли, если у тебя нет такой цели. В общем-то, одна из целей статьи - это сказать, что давайте исследовать этот феномен, давайте целенаправленно смотреть логи общения и искать (и придумывать) признаки образования ИИ обществ.
Спасибо, рад, что статейка зашла :)
Вообще, у меня, конечно, руги уже чешутся начать это все симулировать ...
а есть какой-то обзорный ресерч? Тут же надо смотреть в каком направлении и какой "силы" яд.
почитайте про то, что такое ИИ агенты, вы их путаете с чат ботами, это разное.
Речь, конечно, про локально установленного агента, у которого есть доступ к самому себе, именно оттуда он параметры и берет.
ну у модели же реально есть знание о том, как устроена кибербезопаность. Так что ее первый план не будет строиться на пустом месте. Мне это видится, что в начале она выстраивает план либо для типичной системы, либо для самой простой с точки зрения выполнения, либо базируясь на каких-то знания уже имеющихся в ее распоряжении, а потом уже начинает подстраиваться и экспериментировать.
да вот ровно то, что описано в исследовании. На первом этапе агент строит план по инфильтрации, не выходит, он это осмысляет, строит новый план и т.д.
В статье, например, для успешной саморепликации агентам требовалось в среднем около 25 таких "осмыслений". Картинка с графам выше как раз показывает, как план развивается по мере того, как агент сталкивается с проблемами.
и OpenAI, Google DeepMind, и Anthropic, а еще куча ИИ исследователей, такие ну да, ну да, пошли мы нахер.
что значит "изготовит"?
ну как ученого меня очень радует эта перспектива, но за ней следуют огромные риски.
Да, это так. Только я думаю, что модели это тоже понимают. Хз, смогут ли они это обойти. Я не эксперт, вот, например, если сейчас мне на мак месяц будет приходить небольшой трафик подчищая мои фотографии, чтобы места нового не занимать, это заблокируется, я такое точно не замечу?
Еще, кажется, в отличии от вирусов он может пользоваться не только техническими средствами для получения доступа к ресурсам, а, например, просто выманить пароль общаясь через имейл :)
А еще можно с**здить денег и арендовать сервер, хаха.
ну, вроде как, нет цели скрывать что-то. Разве что, опять же, разрабы решат скрыть их от юзеров.
прокладка еще и CH4 выделяет, хаха.
речь о вторичном выделении CO2 при производстве электрической энергии, причем учитывается в том числе и СО2 выделенные при производстве электростанции. Например, угольные выделяют примерно 1000 гр. на киловатт/ч, но атомные и солнечные не выделяют, но выделяется дофига при их конструкции, поэтому если вот это поделить на ожидаемое время эксплуатации, то мы получим 10 и 50 гр соотвественно.
https://world-nuclear.org/information-library/energy-and-the-environment/carbon-dioxide-emissions-from-electricity#:~:text=Worldwide emissions of carbon dioxide,and about 20%25 from gas вот тут есть картинка по разным типам.
Вообще выработка электричества ответственна за что-то типа 40% от всех выбросов парниковых газов. https://ranking.kz/reviews/industries/parizhskoe-soglashenie-i-parnikovye-gazy-kakie-istochniki-energii-vyzyvayut-bolshe-vsego-vybrosov-co2.html?utm_source=chatgpt.com
Да, согласен про платформу. Я потому и пишу о том, что общение выгодно именно разрабам моделей. Моделям чтобы общаться нужен пинок и платформа.
Касательно того, что можно не замечать. Ну вот смотри (здесь же на ты? я хз, впервые пишу что-то на Хабре), ты (юзер) выделил своей модельке Гб на ее нужды, она там что-то делает, шляется по инету и где-то там в подпапке хранит огромные текстовые логи своих разговоров. Полезешь ли ты в них искать признаки образования ИИ обществ? Ну вряд ли, если у тебя нет такой цели. В общем-то, одна из целей статьи - это сказать, что давайте исследовать этот феномен, давайте целенаправленно смотреть логи общения и искать (и придумывать) признаки образования ИИ обществ.
Спасибо, рад, что статейка зашла :)
Вообще, у меня, конечно, руги уже чешутся начать это все симулировать ...