Обновить
12
0

Пользователь

Отправить сообщение

О войне юзеров на интерфейсы без манипуляций⁠

Калифорнийские иски против Big Tech могут изменить правила игры в дизайне интерфейсов. Сейчас в США проходят судебные баталии против технологических гигантов.

Если раньше претензии к крупным платформам чаще касались модерации контента, то теперь фокус сместился на сам продукт.

В суде оказались внутренние документы компаний, которые подтверждают: разработчики прекрасно понимали вредную природу своих сервисов и намеренно разрабатывали их как «цифровые наркотики».

Внутренняя кухня: Инстаграм как дофаминовая петля.

Одним из самых резонансных моментов процесса стала публикация внутренней переписки сотрудников Meta. В частности, исследователь пользовательского опыта (UX) в одном из чатов прямо сравнил Instagram с наркотиком:

«Мы фактически пушеры… Мы вызываем расстройство дефицита вознаграждения, потому что люди так сильно „бинжат“ (поглощают контент без остановки) в Инстаграм, что перестают чувствовать радость в обычной жизни».

С точки зрения нейробиологии это описание коррелирует с теорией дофаминовой адаптации: когда стимул слишком сильный и частый, рецепторы теряют чувствительность. И судя по документам, менеджмент компании не просто знал об этом, а выстраивал KPI таким образом, чтобы эксплуатировать эту психологическую уязвимость.

Марк Цукерберг и вопрос приватности В деле фигурирует электронное письмо Марка Цукерберга от 2016 года. В нем глава корпорации выражает опасение что, если система будет уведомлять родителей или учителей о прямых эфирах подростков, это «убьет продукт».

Это очень крутой подгон для юристов, так как эта переписка демонстрирует сознательный выбор компании: приоритет вовлеченности над безопасностью и родительским контролем. Получается заявления Meta о том, что «защита детей всегда была их приоритетом» – ложь? (сарказм).

Кроме того, Meta замечена в манипуляции данными: во внутренних отчетах говорилось, что 55% пользователей испытывают «умеренные проблемы» с использованием платформы, в то время, как в публичное пространство выдавалась цифра в 3,1%.

Пример YouTube выглядит не менее проблемно. Согласно обнародованным слайдам, аккаунты несовершеннолетних, нарушающие внутренние политики платформы, могли существовать в среднем 938 дней до момента их обнаружения и блокировки. Почти три года алгоритмы позволяли контенту, который потенциально несет риски для детей, показываться пользователям.

Сейчас IT-компании защищены неким "Разделом 230 Закона о пристойности в сфере коммуникаций", который освобождает их от ответственности за контент, созданный пользователями.

Но адвокаты теперь атакуют вовсе не контент, а дизайн и маркетинг. Во-первых: утверждается, что соцсеть изначально спроектирован дефектным, так как вызывает зависимость; а во-вторых: компании отвечают за то, как их собственные алгоритмы подсовывают деструктивный контент уязвимым группам.

Если суд дойдет до финала, это создаст колоссальный прецедент, когда регуляторы начнут диктовать правила не только для модерации текстов, но и для UX/UI дизайна. Бесконечный скролл, push-уведомления и алгоритмические ленты могут оказаться вне закона или под жестким возрастным цензом.

Всех согласных и несогласных прошу в комментарии или в мой канал в телеграм Двойное зеркало .

Теги:
0
Комментарии0

Относительно недавняя статья от 18.11.2024 г. "Вера в то, что для ИИ «чем больше, тем лучше», начинает меркнуть". (закрыта пэйволом)

Основная ее суть сводится к тому, что популярный до сих пор слоган ИИ
"больше - лучше" (имеется ввиду, чем больше мощности и данных, тем лучше будет ИИ модель на выходе)
уже перестает работать. В доказательство приводят аналогии с законом Мура, который никакой не закон, а просто маркетинговое название, озвучивающий очевидное - чем более технологичное изделие, тем больше инвестиций требуется в его производство.

И как мне кажется, на такие статьи, нам, юзерам вообще не стоит обращать внимания и вот, почему:

  1. Слоган "больше - лучше" очень нравится инвесторам. Есть очевидная точка приложения инвестиций, есть ощутимый выхлоп. Не надо ломать голову и разбираться в архитектурах моделей, особенностей их работы и т.д. Думаю, это один из секретов Альтмана - он простым и наглядным способом объясняет, как приумножить инвестиции. Но такое может не устраивать тех, кто не успел запрыгнуть в первые поезда и теперь пытаются как-то наверстать упущенное.

  2. Это "правило" все еще работает. Не считая GPT (просто за счет закрытости), каждая флагманская модель обучалась на все больших данных и со всем большими вычислительными мощностями. И эти мощности только начали свой стремительный рост. И замедления пока не наблюдается.

  3. Мы, юзеры, все равно будем в выигрыше. Оптимизации, новые архитектуры, конкуренция не оставит нас без плюшек. Про инвесторов я тоже самое сказать не могу (4 пункт).

Поэтому, не стоит очаровываться, чтобы лишний раз не разочаровываться.

Теги:
Всего голосов 2: ↑1 и ↓1+2
Комментарии0

Вышло новое интервью на Русском (https://www.youtube.com/watch?app=desktop&v=BBL-IFZJGWA) от Романа Ямпольски (один из тех дядек, что твердит об опасности ИИ). Выдает фразы насколько непонятные, что пришлось нейронкой проанализировать смысл его высказываний.

Базовый тезис

Текущая линия развития (в сторону общих моделей и затем сверхинтеллекта) ведёт к ситуации, где долгосрочный контроль невозможен, а значит риск катастрофы становится доминирующим.

Что именно он считает главной угрозой

Не «нынешний чат-бот сам по себе», а переход к AGI, после которого появляется возможность самоускоряющегося улучшения (AI помогает делать следующий AI быстрее, параллельно, эффективнее), что приводит к ASI.

Для ASI он утверждает: мы окажемся в положении «муравьёв» относительно людей — не сможем предсказать, остановить, навязать ограничения.

Как по мне, в его суждениях есть несколько фундаментальных ошибок:

Он безусловно принимает на веру тот тезис, что "AGI будет однозначно враждебен к человечеству".

Как AGI придет к такому заключению, он объяснить не смог. И даже почему-то заезженный пример со скрепками не привел

Он говорит, что "Умный агент при оптимизации целей естественно приходит к инструментальным стратегиям (самосохранение, ресурсы, обман/шантаж как выгодные ходы в теории игр)".

Нет, и нет. Пока что это результаты просто мысленных экспериментов. И даже, если нейронки с чего-то додумают не то, то хватит ли им мозгов довести задачу до конца?

ИИ- это чёрный ящик (в смысле, что человек не понимает, как оно устроено), что уже умнее человека.

Уточнение, что умнее в определенных областях, и не факт, что во всех, которые важны для выживания/уничтожения человека. Калькулятор, смартфон, процессор: в мире найдется всего несколько десятков тысяч человек, которые понимает, как устроен калькулятор. Все, что сложнее, не сможет объяснить ни один человек в мире (имеется ввиду полностью, все детали и механизмы). Но бояться надо именно нейросетей - да...

Такие люди, как Роман Ямпольски нужны, чтобы сохранять трезвость мысли и адекватно оценивать риски. Но доводы его... неубедительны.

Теги:
Всего голосов 6: ↑3 и ↓30
Комментарии11

Глупый начальник – умный исполнитель: о росте времени автономного выполнения задач нейронками.

Попалась мне на глаза весьма интересная статья, суть которой сводится к простому: «Каждое следующее поколение моделей способно выполнять автономную работу дольше, чем предыдущее».

И вот у меня назрел вопрос: а где мы найдем ту армию творческих людей, которые способны грамотно раскидать задачи этим «Агентам»?

Чуть раскрою свою мысль через призму личного опыта. Я за свои неполые 30 лет успел побывать и в роли исполнителя, и в роли небольшого начальника (около 8 человек в подчинении). И на основании своего опыта смело могу утверждать следующий тезис:

Часто (но не всегда) определить конкретную и длительную по времени задачу– это очень сложный и творческий процесс, требующий определенного интеллекта. И далеко не каждый руководитель - начальник способен подробно расписать, что требуется делать от подчиненного.

Часто (это касается меня как исполнителя и подчиненного как исполнителя) это происходило в режиме: тебе дают на руки бумагу, в трех словах говорят «короче, надо сделать» и ты уже сам догадываешься, что от тебя нужно, в каком объеме, в какие сроки и т.д. Я как бы схватывал на лету и понимал из невысказанного контекста, что нужно. А если человек не понимает, что от него нужно, то «злой начальник» начинает раздражаться, объяснять (не всегда внятно), уходить в дебри, в итоге придется объяснять еще раз, но подробно, потом это работник показывает результат, а оно не то, что нужно, надо переделывать, потом еще раз переделывать… короче знакомая история.

Современные нейронки еще лет 5-10 такое на лету понимать не смогут. Они также не будут понимать, что от них нужно, руководители разочаровываться в возможностях нейросетей. А дальше: рынок видит упадок интереса, акции летят вниз, Армагеддон, потоп, пришельцы…

Все по тому, что среднестатистический начальник низкого звена не может понятно расписать задачи хотя бы на 10 минут.

А завтра нейронки могут выполнять свою работу эквивалентную часу работы простого человека, послезавтра 2 часа, через неделю уже 8 часов (полноценный рабочий день, между прочим).

И на основании всего этого у меня 2 вопроса:

1. Для кого растут возможности нейросетей? Ну очень слабо верится, что миллиарды тратятся для того, чтобы та сотня тысяч людей, умеющих грамотно ставить задачи, смогла развернуться на полную.

2. Сможем ли мы, как общество, воспользоваться этими по истине колоссальными возможностями? (естественно после того, как перерисуем все картинки в интернете в стиль Гибли и сделаем каждому виртуальную кошкодевочку).

 Вопрос можно сказать, личный поэтому сегодня пост без рекламы канала.

Теги:
Всего голосов 2: ↑2 и ↓0+3
Комментарии7

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность

Специализация

Администратор защиты, Специалист по информационной безопасности
Средний