Запросы на удаление данных могут поступать неоднократно: сначала от одного пользователя, затем от нескольких, и так далее. Переобучать модель с нуля после каждого такого запроса — трудоёмко, дорого и плохо масштабируется в реальных условиях.
Еще есть ситуация, когда вы создали модель для локального развертывания, и выложили ее в открытый доступ. Как отозвать и модифицировать то что уже скачали?
Аналогичные требования существуют и в России. Статья 10.3 Федерального закона №149-ФЗ «Об информации, информационных технологиях и о защите информации» закрепляет право на забвение. В соответствии с этим законом пользователь может потребовать удаления информации о себе, а оператор обязан принять меры для выполнения такого запроса.
Это касается операторов базы данных. Но LLM-модель это не база данных.
Таким образом, юридические требования прямо подталкивают разработчиков к необходимости управлять знаниями внутри моделей
"Знания" внутри модели это вообще не юридическое понятие, а бытовое представление. Формально в модели нет данных. Формально она все выдумывает, с некоторой вероятностью что вымысел совпадет с реальностью.
Много слов, чтобы выразить простую мысль. Когда люди долго живут в относительной безопасности, у них формируется иллюзия защищенности, и они расслабляются. Когда происходит негативное событие которое человек считал маловероятным, человек оказывается к нему неготовым. Особенно если ситуация требует быстрого принятия решения и быстрой реакции. Тогда интеллект не помогает, потому что нет времени все тщательно обдумать. Нужны заранее выработанные рефлексы. И нужно избавиться от иллюзии защищенности, и не считать себя избранным, с которым ничего плохого случиться не может.
Если подобные опусы как на скринах в статье улетают в сеть
К тому же если человек себе такое позволяет, это говорит о низком уровне профессионализма.
История не содержит конкретных имен. Это опубликовано в частном блоге (телеграм-канале). И кстати, автор этой статьи его популяризирует. Блогер от этого только выигрывает.
Уметь быстро найти подходящую библиотечную функцию, и применить ее согласно документации. ИИ быстро найдет такую функцию по описанию задачи, и поможет ее применить. Не придется даже читать документацию.
работодатель не имеет права сообщать персональные данные работника третьей стороне без получения письменного согласия работника
Личное мнение вашего бывшего работодателя о вас, является вашими "персональными данными"? Информация о том, что человек плохо выполнил какую-нибудь работу, это его "персональные данные"?
Если работник бывший - то можно раскрывать любые перс данные, в т.ч. субъективные?
Не бывает никаких "субъективных персональных данных". Закладываем ложные определения, приходим к ложным выводам.
Кто передал информацию о бывшем сотруднике — опять же непонятно.
Какую конкретно "информацию" передали? Информацию о личном мнении одного человека относительно другого человека?
Пост существует. В нём сотрудник конкретной компании описывает конкретную механику сбора референсов. Поэтому я хочу услышать комментарии Яндекса
Статья про историю конкретного человека, или про "неформальную практику сбора референсов" вообще? Речь про политику компании, или про действия отдельных персон из HR-отделов? Претензия к компании в целом, или к конкретному сотруднику?
Дорогие соискатели и сотрудники, если вы сталкивались с подобным
С чем подобным? Из этой истории непонятно что произошло. Был запрос на получение характеристики с предыдущего места работы, и ставится под сомнение законность такого запроса? Был неформальный контакт между сотрудниками HR-служб двух разных компаний, и характеристика с предыдущего места работы была передана неформально в личном общении? Кто-то в интернете распространял слухи о человеке, и на основании этих слухов человек получил отказ в приеме на работу? То есть речь идет о целенаправленной дискредитации?
Я просто вижу из поста, что риск деанонимизации, конечно, был. Он существует всегда, даже если убрать ФИО или слегка изменить детали в посте. Тем более автор поста как будто сама хотела рассекречивания жертвы
Здесь нет проблемы деанонимизации. Человек имеет право рассказать реальную историю о ком-то из своих коллег, и указать реальные имена. Юридические претензии могут быть только к достоверности истории, и к искажению фактов. Если история правдивая, то это уже не юридический вопрос.
HR могут собирать информацию друг у друга по знакомству. Далее эта метка остаётся в системе, и даже спустя 2–3–4 года новый HR, не вникая в детали, может сделать по ней выводы и отказать вам.
Короче, существует неформальная (тайная) база данных, в которой хранятся отзывы работодателей. Это тайную базу создали HR-сектанты. Они в нее заглядывают, и отказывают соискателям из-за плохих отзывов. Почему бы нет? Это вполне вероятно.
В том что это не симулятор физических процессов. Сам принцип вычисления заведомо неидеален. Это упрощенный метод вычисления, для инженерных расчетов. Но это не инструмент для познания мира. Инструменты нужно применять в соответствии с их назначением.
Потому что на выходе идеального передатчика не будет никакой энергии в момент его идеального отключения. Все индуктивности и емкости потеряли накопленную энергию. Никаких токов, никаких разностей потенциалов - идеальный баланс зарядов в системе.
Какой смысл рассматривать симуляцию идеальных процессов, с помощью неидеальных симуляторов? Идеальный сферический спектроанализатор не покажет затухающие гармоники для идеального сферического передатчика, который умеет идеально гасить энергию в ноль.
почему график «AI» не падает до 0%, когда график «Human» достигает 100%?
В сети есть несколько этих графиков. Например в FT он симметричный. https://www.ft.com/content/ae156d04-d724-49f2-b9ad-b288e405b1c2 Возможно несимметричный график это результат неудачной перерисовки. (попросили ИИ сделать график покрасивее, а он пририсовал себе несколько процентов)
откуда эти колебания на 3...5% перед появлением ChatGPT?
Это вполне нормально - ведь методика заведомо несовершенна. Было бы странно если бы график был идеальным.
почему рост AI‑контента резко замедлился в 2024 году?
В какой-то момент замедление должно было произойти, когда начали принимать меры по фильтрации контента. Поначалу пропускали все подряд, наивно думая что ИИ так писать не умеет.
Странно что процент сходится к 50%. Сложно представить наличие какого-то балансирующего механизма.
Примечательно, что Manus не обучает собственную передовую модель. Согласно сообщениям о сделке, компания опирается на сторонние AI‑модели от таких провайдеров, как Anthropic и Alibaba
Что тогда купил Цукерберг - генератор промптов и агрегатор нейросетей?
Иллюстрация к статье не совсем правильная. Больше подошло бы, как Цукерберг в роли Винни-Пуха понимается на воздушном шаре, надеясь хапнуть мёда.
Тогда все остальные можно уже списывать как устаревшие
Первые клиенты начнут получать Nvidia Rubin platform только через год. Чтобы обеспечить новым оборудованием всех желающих, потребуется несколько лет. Это не основной продукт, а top-level в линейке продуктов. Он еще долго будет дефицитным. Основной продукт у Nvidia по прежнему GB200 NVL72.
Это если речь о генеративном-ИИ, где маленькие модели способны конкурировать с большими. Но для пресловутого "AGI" размер имеет принципиальное значение. Он будет приемлемо функционировать только если сможет обрабатывать колоссальные объемы информации в реальном времени. Это необходимое условие. В идеале система должна обрабатывать весь поток информации генерируемой людьми. "Все у кого нет миллиарда серверов могут идти на ...". Разница будет качественной, а не просто в количестве клиентов обслуживаемых одновременно.
Нужна детальная схема вложений в авантюру. Кто сколько денег во что вложил, чьи конкретно деньги использовал, какие долги теперь имеет, и когда их нужно будет отдавать. Так же нужна схема новых рабочих мест, которые уже созданы с прицелом на AI-фикацию. То есть это те кто потеряют работу после AI-карха. Если долги возвращать никому не нужно, а работники из сферы AI немногочисленны, то у карха не будет значимых последствий. Ну допустим та же Nvidia потеряет лишние деньги, с которыми она все равно не знает что делать - в чем катастрофа? Просто вернется в до-AI-шный режим работы.
Общее мнение аналитиков, экспертов и руководителей компаний сходится в том, что на рынке компьютерной инфраструктуры раздувается очередной пузырь.
Потому что они совсем не верят, что коммерческий AI-продукт в итоге будет создан. Естественно что в таком случае нынешняя стратегия развития выглядит дикой авантюрой.
Нормальное развитие - разработать продукт, наладить производство, начать продавать продукт и получать прибыль, расширять производство за счет прибыли.
Особенность нынешней ситуации в том, что расширяют производственную площадку еще до того, как разработан продукт, продажа которого приносит прибыль. Расширяют уже сейчас потому, что необходимо захватить рынок как можно быстрее. "Кто отстал тот не догонит" - такая логика. Лидер сразу "высасывает все деньги мира", и остальным уже не хватит на развитие. Предполагается что AI сначала завалит мировую экономику, и новые игроки просто не смогут привлечь деньги и ресурсы для развития.
Рассмотрим протон и электрон внутри атома водорода. Электромагнитная сила между ними примерно в 10^39 раз сильнее, чем их гравитационное притяжение. Нет, это не опечатка. Это означает, что если бы гравитация была хотя бы немного сильнее на уровне частиц, атомы — и, следовательно, химия, биология и жизнь — выглядели бы совершенно иначе.
Допустим, что отношение стало бы 10^38. Сила притяжения между электроном и протоном в атоме водорода стала бы не (1 + 1/10^39), а (1 + 1/10^38). На что бы это повлияло?
По мере масштабирования, LLM будет становиться VLLM, HLM, и как угодно больше. Но она по прежнему останется LM. Это все та же игра в слова. Подбор фраз соответствующих другим фразам. Это лингвистическое конструирование, а не логическое. Человек мыслит не словами. Хотя зачастую автоматически генерирует лингвистический поток параллельно процессу мышления. Это становится рефлексом, потому что очень востребовано. По сути, язык это способ зафиксировать мысли на внешнем носителе, и способ передать их в "другое вычислительное устройство".
Меня взломали! Утром мой сервер начал майнить Monero
Оригинальное название не следовало сохранять, оно неправильное. Утром автор истории узнал что с сервером есть проблема, и начал разбираться. А крипту сервер майнил уже 10 дней, по его словам. В какое время дня он начал майнить не сказано. Более правильное название для перевода - "Меня взломали! Утром я узнал что я идиот." (он же не следил за обновлениями безопасности для установленного ПО)
Еще есть ситуация, когда вы создали модель для локального развертывания, и выложили ее в открытый доступ. Как отозвать и модифицировать то что уже скачали?
Это касается операторов базы данных. Но LLM-модель это не база данных.
"Знания" внутри модели это вообще не юридическое понятие, а бытовое представление. Формально в модели нет данных. Формально она все выдумывает, с некоторой вероятностью что вымысел совпадет с реальностью.
Много слов, чтобы выразить простую мысль. Когда люди долго живут в относительной безопасности, у них формируется иллюзия защищенности, и они расслабляются. Когда происходит негативное событие которое человек считал маловероятным, человек оказывается к нему неготовым. Особенно если ситуация требует быстрого принятия решения и быстрой реакции. Тогда интеллект не помогает, потому что нет времени все тщательно обдумать. Нужны заранее выработанные рефлексы. И нужно избавиться от иллюзии защищенности, и не считать себя избранным, с которым ничего плохого случиться не может.
https://rutube.ru/video/e779b1017c7c9339b5a7b5653ec0b431/
История не содержит конкретных имен. Это опубликовано в частном блоге (телеграм-канале). И кстати, автор этой статьи его популяризирует. Блогер от этого только выигрывает.
Уметь быстро найти подходящую библиотечную функцию, и применить ее согласно документации.
ИИ быстро найдет такую функцию по описанию задачи, и поможет ее применить. Не придется даже читать документацию.
Личное мнение вашего бывшего работодателя о вас, является вашими "персональными данными"?
Информация о том, что человек плохо выполнил какую-нибудь работу, это его "персональные данные"?
Не бывает никаких "субъективных персональных данных". Закладываем ложные определения, приходим к ложным выводам.
Какую конкретно "информацию" передали? Информацию о личном мнении одного человека относительно другого человека?
Статья про историю конкретного человека, или про "неформальную практику сбора референсов" вообще?
Речь про политику компании, или про действия отдельных персон из HR-отделов? Претензия к компании в целом, или к конкретному сотруднику?
С чем подобным? Из этой истории непонятно что произошло.
Был запрос на получение характеристики с предыдущего места работы, и ставится под сомнение законность такого запроса?
Был неформальный контакт между сотрудниками HR-служб двух разных компаний, и характеристика с предыдущего места работы была передана неформально в личном общении?
Кто-то в интернете распространял слухи о человеке, и на основании этих слухов человек получил отказ в приеме на работу? То есть речь идет о целенаправленной дискредитации?
Здесь нет проблемы деанонимизации. Человек имеет право рассказать реальную историю о ком-то из своих коллег, и указать реальные имена. Юридические претензии могут быть только к достоверности истории, и к искажению фактов. Если история правдивая, то это уже не юридический вопрос.
Короче, существует неформальная (тайная) база данных, в которой хранятся отзывы работодателей. Это тайную базу создали HR-сектанты. Они в нее заглядывают, и отказывают соискателям из-за плохих отзывов. Почему бы нет? Это вполне вероятно.
ИИ будет искать истину, а роботы будут нести ее людям.
В том что это не симулятор физических процессов. Сам принцип вычисления заведомо неидеален. Это упрощенный метод вычисления, для инженерных расчетов. Но это не инструмент для познания мира.
Инструменты нужно применять в соответствии с их назначением.
Потому что на выходе идеального передатчика не будет никакой энергии в момент его идеального отключения. Все индуктивности и емкости потеряли накопленную энергию. Никаких токов, никаких разностей потенциалов - идеальный баланс зарядов в системе.
Какой смысл рассматривать симуляцию идеальных процессов, с помощью неидеальных симуляторов?
Идеальный сферический спектроанализатор не покажет затухающие гармоники для идеального сферического передатчика, который умеет идеально гасить энергию в ноль.
Инструменты надо использовать правильно.
Не поможет. Свой интернет надо делать.
В сети есть несколько этих графиков. Например в FT он симметричный. https://www.ft.com/content/ae156d04-d724-49f2-b9ad-b288e405b1c2
Возможно несимметричный график это результат неудачной перерисовки. (попросили ИИ сделать график покрасивее, а он пририсовал себе несколько процентов)
Это вполне нормально - ведь методика заведомо несовершенна. Было бы странно если бы график был идеальным.
В какой-то момент замедление должно было произойти, когда начали принимать меры по фильтрации контента. Поначалу пропускали все подряд, наивно думая что ИИ так писать не умеет.
Странно что процент сходится к 50%. Сложно представить наличие какого-то балансирующего механизма.
Что тогда купил Цукерберг - генератор промптов и агрегатор нейросетей?
Иллюстрация к статье не совсем правильная. Больше подошло бы, как Цукерберг в роли Винни-Пуха понимается на воздушном шаре, надеясь хапнуть мёда.
Первые клиенты начнут получать Nvidia Rubin platform только через год. Чтобы обеспечить новым оборудованием всех желающих, потребуется несколько лет.
Это не основной продукт, а top-level в линейке продуктов. Он еще долго будет дефицитным. Основной продукт у Nvidia по прежнему GB200 NVL72.
Это если речь о генеративном-ИИ, где маленькие модели способны конкурировать с большими. Но для пресловутого "AGI" размер имеет принципиальное значение. Он будет приемлемо функционировать только если сможет обрабатывать колоссальные объемы информации в реальном времени. Это необходимое условие. В идеале система должна обрабатывать весь поток информации генерируемой людьми. "Все у кого нет миллиарда серверов могут идти на ...". Разница будет качественной, а не просто в количестве клиентов обслуживаемых одновременно.
Нужна детальная схема вложений в авантюру. Кто сколько денег во что вложил, чьи конкретно деньги использовал, какие долги теперь имеет, и когда их нужно будет отдавать.
Так же нужна схема новых рабочих мест, которые уже созданы с прицелом на AI-фикацию. То есть это те кто потеряют работу после AI-карха.
Если долги возвращать никому не нужно, а работники из сферы AI немногочисленны, то у карха не будет значимых последствий. Ну допустим та же Nvidia потеряет лишние деньги, с которыми она все равно не знает что делать - в чем катастрофа? Просто вернется в до-AI-шный режим работы.
Потому что они совсем не верят, что коммерческий AI-продукт в итоге будет создан. Естественно что в таком случае нынешняя стратегия развития выглядит дикой авантюрой.
Нормальное развитие - разработать продукт, наладить производство, начать продавать продукт и получать прибыль, расширять производство за счет прибыли.
Особенность нынешней ситуации в том, что расширяют производственную площадку еще до того, как разработан продукт, продажа которого приносит прибыль.
Расширяют уже сейчас потому, что необходимо захватить рынок как можно быстрее. "Кто отстал тот не догонит" - такая логика. Лидер сразу "высасывает все деньги мира", и остальным уже не хватит на развитие. Предполагается что AI сначала завалит мировую экономику, и новые игроки просто не смогут привлечь деньги и ресурсы для развития.
Странно, что в статье нет слова "космология".
Допустим, что отношение стало бы 10^38. Сила притяжения между электроном и протоном в атоме водорода стала бы не (1 + 1/10^39), а (1 + 1/10^38). На что бы это повлияло?
Читаю это так:
Китайские специалисты разрабатывают систему для быстрого создания РНК-лекарств.
Какие мысли у меня при этом возникают:
Почему не российские?
Когда будут лекарства?
Какая технология лежит в основе системы - это вообще не важно. ИИ? И что? Главное дайте таблеток побыстрее.
По мере масштабирования, LLM будет становиться VLLM, HLM, и как угодно больше. Но она по прежнему останется LM. Это все та же игра в слова. Подбор фраз соответствующих другим фразам. Это лингвистическое конструирование, а не логическое.
Человек мыслит не словами. Хотя зачастую автоматически генерирует лингвистический поток параллельно процессу мышления. Это становится рефлексом, потому что очень востребовано. По сути, язык это способ зафиксировать мысли на внешнем носителе, и способ передать их в "другое вычислительное устройство".
В соглашении может быть требование заявлять о наличии сканеров, и санкции за сокрытие.
Видимо для Umami.
Оригинальное название не следовало сохранять, оно неправильное. Утром автор истории узнал что с сервером есть проблема, и начал разбираться. А крипту сервер майнил уже 10 дней, по его словам. В какое время дня он начал майнить не сказано.
Более правильное название для перевода - "Меня взломали! Утром я узнал что я идиот." (он же не следил за обновлениями безопасности для установленного ПО)