Обновить
1256.43

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга

Выручка Nebius во 2 квартале выросла до $105,1 млн

Выручка нидерландской компании Nebius (бывшая Yandex N.V., которая ранее была головной компанией группы «Яндекс») во 2 квартале 2025 года выросла на 625% относительно результата за аналогичный период прошлого года и составила $105,1 млн. Об этом говорится в пресс-релизе группы.

Скорректированный чистый убыток вырос на 49% год к году и составил $91,5 млн. Показатель EBITDA оказался отрицательным и составил минус $21 млн.

По итогам шести месяцев 2025 года выручка Nebius составила $156 млн, а чистый убыток – $175,2 млн.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии0

Как легко запустить модель в облаке из Hugging Face ❓

Расскажем, как развернуть нужную вам модель — в качестве примера возьмем сервис Evolution ML Inference. Вам не понадобится создавать Docker-образ, скачивать и устанавливать Environment и CUDA, а весь процесс займет пять минут. Мы засекали 👌

Пошаговая инструкция запуска модели:

1. Сперва получите доступ к модели. Для этого зарегистрируйтесь в Hugging Face, получите токен доступа (User Access Token) и создайте секрет в Secret Management, указав токен Hugging Face.

2. Создайте инференс — зарегистрируйтесь в личном кабинете Cloud.ru, перейдите в ML Inference, выберите пункт Model RUN и нажмите «Создать».

3. Введите название инференса и выберите Runtime — это фреймворк, который позволяет делать инференс. Нужный Runtime зависит от задачи: для запуска LLM советуем vLLM, для диффузионных моделей — Diffusers, а для базовых моделей подойдет Transformers. Также укажите версию фреймворка, по умолчанию выставлена последняя.

4. Кликните «Добавить модель из Hugging Face» и выберите секрет с токеном — его вы получили на шаге 1.

5. Нажмите «Добавить», поле «Задача модели» заполнится автоматически.

6. Введите дополнительные параметры для каждого фреймворка. Допустим, у vLLM советуем указать: «Enable prefix caching», «Enable chunked prefix», «KV cache type: FP8».

7. Определитесь с нужным объемом памяти GPU и количеством карт. Калькулятор подскажет, сколько ресурсов понадобится для запуска модели, для которой вы указали адрес репозитория.

8. Настройте автомасштабирование: минимальное и максимальное количество экземпляров, запросов в секунду, тип масштабирования, к примеру, Concurrency или RPS.

9. Если нужно, активируйте опцию «Аутентификация» и «Логирование запросов».

Все готово, осталось нажать «Создать», и инференс запустится в течение нескольких минут. Нужно только дождаться, когда инференс перейдет в статус «Запущено» и появится публичный URL для запроса к модели.

Как итог — модель запущена за пять минут, мощности для ее работы выделяются автоматически, а вы платите только за использованные по факту ресурсы. Если хотите запустить кастомную модель, например, с использованием Triton Inference Server, попробуйте Docker RUN в Evolution ML Inference.

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

Представлен сервис Polyglotta для перевода любого текста на 5 языков одновременно бесплатно и без регистрации. Поддерживает 34 языка, среди которых английский, испанский, французский и русский. Есть встроенный ИИ-помощник — он объясняет перевод, подсказывает синонимы, происхождение слова и примеры использования.

Теги:
Рейтинг0
Комментарии0

По мнению Microsoft, через пять лет искусственный интеллект будет играть в работе Windows решающую рол. Компания опубликовала видеоролик под названием «Видение Windows 2030», в котором говорится, что основным средством взаимодействия человека и операционной системы станет естественная речь и ИИ-агенты. А вот работа с мышкой, клавиатурой и набор текста в 2030 году будут чуждыми и уйдут на второй план.

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии3

Пора знакомиться! ГенИИ и Агентный ИИ.

Внедрение ИИ в работу контакт‑центров уже не обсуждается. Сегодня это необходимость. Но мы переходим на следующую эволюционную ступень развития - это внедрение генеративного интеллекта (генИИ). Мы изучили исследование и в этой публикации - самый сок!

Итак, исследование «Тренды использования генеративного ИИ в клиентском сервисе» проводилось Национальной Ассоциацией Контактных Центров (НАКЦ) в партнёрстве с компанией BSS. В результате выяснилось - 30% клиентских служб уже активно использует генИИ. Ещё 42% используют, но только в некоторых процессах.

Какой была выборка? В исследовании приняли во внимание ответы 465 респондентов из России, Беларуси, Казахстана, Узбекистана и др. стран. Это были представители банковской и финансовой сфер, телекоммуникационных компаний, сервис‑провайдеров, розничной торговли, аутсорсинговых контакт‑центров.

72% опрошенных подтвердили, что активно или частично используют генИИ для обслуживания клиентов. Ещё 24% планируют внедрение данной технологии

Что же хотят от генеративного ИИ? С помощью генИИ компании стремятся создать уникальный и персонализированный клиентский опыт. ИИ способен учитывать множество факторов и данных, что помогает прогнозировать потребности клиентов и проактивно предлагать свои услуги и продукты.

Респонденты заинтересованы в гиперперсонализированных рекомендациях, когда ИИ предлагает индивидуальные товары, услуги, цены или контент на основе истории покупок, предпочтений или поведения пользователя.

Первичная задача использования генИИ — автоматизация клиентского обслуживания с помощью текстовых и голосовых роботов: «Это даёт наиболее быстрый и измеримый эффект: затраты на обслуживание падают, скорость обслуживания растёт»

И все же ключевым трендом и генеральной линией дальнейшего развития генИИ в перспективе ближайших лет эксперты считают мультиагентность. Это как определённая совокупность ботов на генИИ, которые смогут взаимодействовать между собой.

«Мультиагентность предполагает объединение отдельных агентов генИИ в некий "коллектив“ AI‑агентов. И в этом „сообществе“ каждый AI‑агент решает не только свои задачи, но и действует совместно с прочими - они делегируют задачи друг другу»

А вы рассматриваете нанять коллектив генИЕВ в рабочие процессы?

Теги:
Рейтинг0
Комментарии5

Представлен репозиторий с кейсами по нейронкам и ML от топовых бигтехов мира — это сборник опыта компаний разной величины, из которого можно взять тонны знаний и применять в разработках. Только рабочий опыт, никакой теории, мишуры — реальные разработки Uber, Microsoft, Amazon, Google и других техногигантов. Пошаговые истории внедрения, бенчи и результаты, а также финансовый профит, который принесли нейронки. Все кейсы отсортированы по сферам, компаниям и типам задач — вы точно сможете найти полезности для себя. Советы по внедрению и масштабированию ML-систем, борьба с когнитивными искажениями и возражениями клиентов, а также реальная оценка качества моделей.

Теги:
Рейтинг0
Комментарии0

OpenAI выпустили в Open Source две бесплатные модели gpt-oss, которые почти не уступают o3 и o4-mini.

Это самые умные модели, которые вы можете запустить у себя дома — маленькая gpt-oss-20b летает на домашнем ПК. А ещё это первый релиз в опенсорс от OpenAI за 6 лет — последний раз они так выпускали GPT-2.

gpt-oss доступна в двух версиях: с 20 млрд и 120 млрд параметров. Для первой для работы требуется минимум 16 ГБ видеопамяти, а для второй — 80 ГБ.

Теги:
Всего голосов 4: ↑4 и ↓0+5
Комментарии1

Что будем обсуждать и про что рассказывать на GoCloud Tech ☁️

3 сентября, уже почти через месяц, состоится наша вторая технологическая IT-конференция про облака и AI — GoCloud Tech.

Мы запланировали для вас четыре трека:

🤖 AI&ML — про AI-продукты нашей разработки и работу с GenAI. Узнаете, как устроены RAG-системы и мультиагентные ассистенты, а также, как они уже применяются в работе и как начать их использовать

☁️ Cloud Infrastructure — про построение устойчивой, масштабируемой и безопасной облачной инфраструктуры: нюансы сетевой архитектуры, проектирование IaaS‑кластеров на K8s, возможности балансировщиков и производительность SDN.

📈 Data&Analytics — про современные подходы к Big Data и аналитике: тренды, возможности облачных сервисов, интеграцию с AI-агентами и инструменты для быстрого и эффективного решения задач хранения, обработки и анализа.

⚙️ Dev Platform Services — в рамках трека разберем детали и заглянем «под капот» решений, чтобы затем облегчить повседневную рутину разработки и настройки сервисов, а еще — оптимизировать процессы в инженерных командах.

А еще вас ждет:

  • демо и интерактивные зоны новых AI-сервисов и сервисов платформы Cloud․ru Evolution;

  • технические воркшопы;

  • нетворкинг, кастомный мерч и afterparty.

Как принять участие:

Подключайтесь к онлайн-трансляции в VK и на Twitch (ссылка придет зарегистрированным участникам в письме) или приходите в Лофт-пространство Goelro в Москве. Собираемся 3 сентября в 10:00, а основную программу начинаем в 11:00. Кстати, ей мы тоже совсем скоро с вами поделимся.

Зарегистрироваться 👈

А пока можно почитать, как прошли наши предыдущие конференции:

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

В этот чудный день захотелось рассказать пару занятных историй про ИИ

Талси Габбард занимает должность, которую можно описать как куратора всех разведывательных органов США. Ответственная должность, между прочим. Настолько же ответственно она подошла к задаче оптимизации работы с секретными документами. Ведь оптимизация значит что? Надо использовать ИИ. Она говорит, мол, вот раньше с секретными документами работали вручную, а теперь мы можем использовать ИИ коммерческих компаний для анализа, что именно нужно засекретить, а что нет. Вот и скормила все документы по Кеннеди ИИ…

Что ж, не забудьте скоро спросить у ChatGPT, что он может сказать по поводу убийства Кеннеди, посмотрим, что он скажет (если умные дядьки не успели всё подчистить).

Опуская вопрос необоснованного преклонения перед большими языковыми моделями (они именно языковые, а не божественные, и даже не могут нормально сыграть в шахматы) по анализу документов, имеющих отношение к государственной безопасности, я на всякий случай напоминаю, что информация, которую вы даёте таким нейросетям, является частью их обучения и она может быть запомнена и выдана стороннему человеку, если ранжирование доступа к определённым типам информации не было предусмотрено.

Это большая правовая проблема, что и как именно используют нейросетки при обучении как запоминают информацию и т.д., предоставляют об этом информацию сторонним людям, а также как именно от этого защищаться (в целом защита персональных данных от ИИ).

Ну и кроме того, набивший оскомину спор о том, нарушает ли условный Midjourney интеллектуальные права. Disney и Universal, два колосса Голливуда, объединившись, таки решили дать судебный бой. Основное обвинение – плагиат. Защита ИИ – концепция добросовестного использования (таким образом, к примеру, защищены пародии на известные хиты). Основной вопрос – является ли использование «преобразующим», т.е. добавляет ли оно новое значение или выражение.

Также занятен аргумент, что изображения персонажей в новых образах может наносить (и наносило раннее) ущерб брендам. Это, кстати перекликается с другим интересным спором из сферы Интеллектуальной собственности, пародийные средства индивидуализации товара (напишу пост, обещаю).

Если спросите меня, на какую лошадку ставить, я бы ставил на Midjourney, потому что факт обучения чего-то на примере чужой интеллектуальной собственности вообще ничего не значит, да и преобразующий элемент генерации, по-моему, очевиден. Я почти уверен, что настройки системы не позволяют скопировать чужую ip, и всегда «пародирует» что-то по дефолту, хотя, утверждать, конечно, не могу.

Но многое, как водится, зависит от качества оказанных сторонам юридических услуг.

Подводя подитог размышлениям на эту тему, нельзя забывать про влияние самого пользователя на обучение и результаты генерации. Я это к тому, что вполне может оказаться так, что сами же художники этих уважаемых студий в ту же Midjourney загружали дартов вейдеров, прототипы Pixar и т.д., а потом генерили картинки, выдавая за свои. Вот откуда ИИ знать, что это какая-то внутренняя разработка, и договоримся ли мы до того, что нейронка сама может подать на плагиат?

Теги:
Рейтинг0
Комментарии0

Диалоги с ИИ в Google, локальные модели и немного паранойи⁠⁠

или почему я всё чаще задумываюсь об оффлайн-LLM

Стал смотреть в сторону локального запуска моделей. Не из-за хайпа, а скорее из-за недоверия.
Причина - не сами технологии, а то, как с ними обращаются.

Облако это удобно. Но публично, если не уследил

Недавно в Google начали всплывать реальные диалоги пользователей с Grok и ChatGPT.
Обычные ссылки на чаты, которые кто-то где-то засветил. Google их подхватил - и вот, они уже в выдаче. OpenAI убирали из индекса ~50 000 ссылок на публичные диалог, они подчистили Google, но забыли про Archive.org.
А там всё ещё висят штуки с логинами, ключами, приватными планами.

Анализ показал: из 512 чатов 20% содержали явно конфиденциальную информацию.

Поделился ссылкой? Потерял контроль

Даже если вы делитесь диалогом «только внутри команды» - дальше всё по классике:

  • может попасть в Google

  • сохраниться в Archive

  • быть расшаренной кем угодно

  • остаться в кэше навсегда

Почему вообще об этом думаю

Планирую собрать поделку: связать LLM и Obsidian.
А в Obsidian у меня почти всё личное - от заметок до чувствительных штук.

И вот тут уже важно, чтобы данные не утекали наружу, даже случайно. Поэтому и смотрю в сторону локального inference - без облаков, логов и внешнего API.

🎁 Бонусы

🧮 LocalScore.ai
Сервис, который показывает, какие LLM потянет ваша видеокарта. Удобно, если хотите запускать модель у себя - а не в чьём-то дата-центре.

🔑 ai-keys-leaks.begimher.com
Ищет утёкшие API-ключи от OpenAI, Claude, Gemini и других.
Не факт, что что-то сработает — 99% ключей мёртвые. Но наличие таких баз говорит о многом.

Я не стал параноиком. Но теперь всё, что потенциально приватно — я не пишу в облако.Потому что модель забудет, а интернет - нет.

Если тебе близка тема ИИ, агентных систем и ты хочешь быть в числе тех, кто не просто читает новости, а сам их делает — залетай в мой Telegram-канал debug_leg. 🔗 Ссылка - https://t.me/debug_leg

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

⚠️ Рутинные задачи отнимают время

⚠️ Сложности с интеграцией внешних сервисов

⚠️ Неэффективное управление задачами

Как создать собственного AI-агента, который автоматизирует задачи и повысит эффективность работы? Разберем на вебинаре «AI-агент под ключ: от настройки ChatGPT до интеграции с внешними сервисами» 8 августа в 16:00.

Что будет на эфире:

✔️ Введение в Zapier Actions и OpenAPI-интеграцию

✔️ Подключение и настройка схемы API Zapier

✔️ Создание агента: от запроса до выполнения действия

✔️ Постановка задач в Task Manager через агента

✔️ Практика: настройка собственного агента шаг за шагом

✔️ Ответы на вопросы и рекомендации по оптимизации работы с AI

👨‍🎓 Спикер: Кадочников Алексей — опытный фронтенд-разработчик и преподаватель, помогает осваивать AI в кодинге.

👥 Кому будет полезно

— Разработчикам и no-code специалистам

— Продакт-менеджерам и системным аналитикам 

— Техпредпринимателям 

— Всем, кто хочет освоить возможности AI и интеграции с внешними сервисами

👉 Записаться

Теги:
Рейтинг0
Комментарии0

Находим новые игры с помощью ИИ — представлен бесплатный сервис SteamScore, который подскажет всю нужную информацию об игре и выдаст список похожих проектов. Проект считывает все обзоры и выписывает все плюсы и минусы, показывает среднее время прохождения, составляет список игр с похожей атмосферой или геймплеем, показывает самый полезный и самый смешной отзыв.

Теги:
Рейтинг0
Комментарии6

Что такое PRoPE? Рассказывают наши коллеги из лаборатории искусственного интеллекта ИТ-компании "Криптонит"

В системах машинного зрения часто требуется обрабатывать изображения одного объекта с разных камер, учитывая их взаимное расположение и параметры. Традиционный метод Naive raymaps добавляет к пикселям информацию о положении в 3D, но он вычислительно затратен и ограничивает обобщающую способность модели при изменении условий съёмки.

PRoPE (Projective Positional Encoding) предлагает новый подход к кодированию пространственных отношений, улучшая работу нейросетей-трансформеров в задачах обработки изображений с нескольких ракурсов.

Как работает PRoPE? PRoPE — метод относительного позиционного кодирования, интегрирующий параметры камер (внутренние и внешние) в блоки внимания трансформеров.

В отличие от традиционных подходов, кодирующих геометрию на уровне пикселей, PRoPE встраивает её на уровне внимания, что делает модель независимой от глобальной системы координат. Метод учитывает расположение, ориентацию, фокусное расстояние и разрешение камер, что важно для систем с разными характеристиками.

Преимущества PRoPE:

  • улучшенная производительность: PRoPE превосходит другие методы в задачах синтеза, оценки глубины и пространственного распознавания, показывая лучшие метрики (PSNR, LPIPS, SSIM) на датасетах RealEstate10K и Objaverse.

  • гибкость: эффективен при разных параметрах камер или изменении числа входных изображений.

  • совместимость: комбинируется с методами вроде CamRay, повышая точность.

  • масштабируемость: сохраняет преимущества при увеличении ресурсов и размеров моделей (LVSM, CAT3D).

Недостатки PRoPE:

  • сложность реализации: требует модификации блоков внимания, усложняя разработку.

  • ограниченная применимость: преимущества менее заметны при фиксированных однотипных камерах.

Несмотря на некоторые ограничения, PRoPE открывает новые возможности для создания более точных и универсальных моделей компьютерного зрения.

Теги:
Рейтинг0
Комментарии0

Ближайшие события

10 задач, в которых AI действительно помогает QA-инженеру

Этот пост – саммари пилота нейросетей на реальном проекте. На тесте было несколько моделей: DeepSeek, Qwen, Gemma. 

Вот универсальный список задач по тестированию, с которым все они справляются хорошо:

– анализ логов и stack trace;
– поиск причин неочевидных ошибок в пайплайне;
– генерация SQL-запросов и объяснение незнакомых конструкций (например, JSONB);
– экранирование кавычек в больших XML-фрагментах;
– автоматическая генерация тест-кейсов из BPMN- или XML-схем;
– генерация случайных данных для теста;
– сравнение параметров (включая UTF-8 кодировку) при ошибках интеграции;
– проверка SQL-запросов, XSD (XML) и JSON-схем на соответствие структуре;
– подсказки по фиксам в случае ошибок, связанных с отсутствием логов;
– преобразование описаний ТЗ в чек-листы (но только если текст написан понятно и ТЗ описано подробно, подойдет не для всех и нужно внимательно ревьюить результаты);
– написание сниппетов для postman.

Вывод ожидаем: ИИ все еще не заменяет тестировщика, но ускоряет работу. Главное – не забывать проверять то, что получилось.

💬 А какие кейсы сработали у вас?

Теги:
Рейтинг0
Комментарии0

В США вместо офисных зданий и рабочих помещений начали активно строить дата-центры для ИИ.

Теги:
Всего голосов 1: ↑1 и ↓0+2
Комментарии0

После 9 месяцев постоянного вайбкодинга могу сказать что это буллщит.

Ты хреново излагаешь мысли, так как не понимаешь нюансов - получаешь херовый сервис. Нет, код прекрасный, он логичен и эффективен. Просто ты сам виноват, ибо ты не умеешь не вносить каждым наивным проптом вида "fix it, accelerate endpoint" все больше интерференции и в конечном итоге все больше энтропии. Банально сервис дублирует твой неструктурированный и противоречивый поток мыслей и превращает его в странный конструкт.

Это ладно я еще +- айтишник, могу сказать что хей, тут ты зря кешируешь результат, избыточно, а тут вообще можно просто из бд вытянуть и не сверять каждый раз с ответом API. Что творится у людей без представления о комьютер саенс представить страшно представить.

Предлагаю термин вайбинжиниринг. И он работает только в сочетании с технофашизмом. Вайбинжиниринг требует чтобы ты четко проектировал, описывал правила работы и проверял что они не противоречат друг другу. Вайбинжиниринг требует с самого начала делать public/dev логирование, обмазываться линтерами, делать семантическую разметку, запускать перфоманс тесты, писать всегда с юнит тестами и покрывать тест сценарии, совершенно жуткого гайда по тому как описывать схему в openapi и ошибки. И кучи еще чего

И все это в связке надо пару раз проверять на семантическую энтерференцию и контекст юзейдж. Тогда да, будет прекрасный мир будущего.

P.S. Пост от балды от очередного условного вайбкодера ради интереса прикладной автоматизации на работе.

Теги:
Всего голосов 12: ↑9 и ↓3+8
Комментарии15

Команда нейросети для разработчиков Claude выпустила видеокурс по программированию — бесплатно и для всех желающих. На видео показано, как правильно писать промты под разные задачи, как подключить ИИ к сторонним сервисам и создавать дизайны в Figma парой предложений, есть готовые юзеркейсы с интеграцией нейросетей в работу, гайды по созданию своих ИИ-агентов для рутин.

Теги:
Рейтинг0
Комментарии0

Американский школьник доверил ChatGPT $100 и позволил полностью управлять инвестициями. За месяц ИИ сам подбирал акции, выставлял заявки, а портфель вырос на 23,8%. Для сравнения, индексы Russell 2000 и XBI прибавили лишь 3,9% и 3,5%. Автор эксперимента, школьник Натан Смит, не вмешивался в процесс и создал систему отслеживания сделок через Yahoo Finance.

Теги:
Рейтинг0
Комментарии1

🛡️ OWASP опубликовал топ-10 уязвимостей для LLM-приложений — теперь и на русском

Если вы разрабатываете агентов, интегрируете GPT в бизнес-логику или просто строите чат-ботов — уязвимости могут стать не теоретической, а очень практической болью. OWASP подготовил подробный список из 10 наиболее распространенных угроз, с которыми уже сталкиваются разработчики LLM-продуктов.

📘 Новость в том, что теперь весь список переведен на русский язык.
Это полноценная PDF, где у каждого пункта есть описание, примеры, сценарии атак и меры предотвращения. Прочитать можно за вечер — сэкономите недели на разборках после продакшена.

Что внутри?

Вот несколько уязвимостей, которые стоит знать до, а не после:

🔓 Prompt Injection (LLM01)

Манипуляция промптами, когда злоумышленник через запросы влияет на поведение модели. Причем не всегда напрямую — инструкции могут быть спрятаны в других источниках: веб-страницах, описаниях или даже изображениях.
💥 Последствия: обход системных ограничений, генерация нежелательного контента, утечка данных.

🧠 Чрезмерная агентность (LLM06)

Когда ваш LLM получает слишком много возможностей и начинает действовать почти автономно. Особенно критично в агентных архитектурах: вроде хотели автоматизировать рутину — а получили сбой в цепочке действий и неожиданный запрос в продовую систему.

🕵️ Утечка системных инструкций (LLM07)

Системный prompt, на который вы надеялись, что он «где-то под капотом» — может внезапно всплыть в ответе. И да, это уже происходило в реальных кейсах.

☠️ Отравление модели и данных (LLM04)

Если используете RAG, fine-tuning или хостите датасеты от пользователей — атака может прийти снаружи. Достаточно одного вредоносного документа, чтобы искажать ответы модели.

Почему это важно?

Потому что LLM-интеграции — это не просто UX-фича, а точка доступа в критические процессы. Слишком часто в AI-продуктах безопасность оказывается "потом".

OWASP формирует этот список на основе реальных атак, багрепортов и практики. Это живой, работающий фреймворк, а не академическая выжимка.

📎 Документ доступен бесплатно, под лицензией CC BY-SA:
👉 PDF на русском языке (OWASP, 2025)

💬 Финалочка

Если вы пишете что-то на базе GPT, Claude или других LLM — этот список должен быть у вас в закладках.
Потому что баг, который вы считаете “забавной фичей”, может завтра попасть в презентацию хакеров на DEF CON.


🔗 Я веду Telegram-канал, где разбираю такие истории и делюсь собственными экспериментами в инди-хакинге и запуске микро-продуктов.
https://t.me/debug_leg

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии1

Microsoft провела масштабное исследование и выяснила 40 профессий, которые могут исчезнут из-за нейросетей.

В список попали: переводчики и устные переводчики, историки, бортпроводники, торговые представители в сфере услуг, писатели и авторы, специалисты по обслуживанию клиентов, программисты станков с ЧПУ, телефонные операторы, агенты по продаже билетов и туристические клерки, радиоведущие и дикторы, брокерские клерки, преподаватели по ведению домашнего и фермерского хозяйства, телемаркетологи, консьержи, политологи, журналисты, репортёры, корреспонденты, математики, технические писатели, корректоры и редакторы текста, хосты и хостессы, редакторы, преподаватели бизнеса (вузовского уровня), специалисты по связям с общественностью, демонстраторы и промоутеры, агенты по рекламе, клерки по открытию счетов, статистические ассистенты, клерки по аренде и прокату, специалисты по анализу данных, персональные финансовые консультанты, архивариусы, преподаватели экономики (вузовского уровня), веб-разработчики, аналитики по управлению, географы, модели, маркетинговые аналитики, специалисты по телекоммуникационной безопасности, операторы коммутаторов, преподаватели библиотечных наук (вузовского уровня).

Список профессий, которые ИИ пока не сможет заменить: медсестры, медицинские ассистенты (нянечки), работники по удалению опасных материалов, подсобные рабочие, бальзамировщики, операторы систем и установок, челюстно-лицевые хирурги, установщики и ремонтники автомобильных стёкол, судовые инженеры, ремонтники шин, ортопеды-протезисты, подсобники в производстве, работники по обслуживанию дорог, подготовщики медицинского оборудования, операторы упаковочных и фасовочных машин, рабочие на машинах, посудомойщики, бетонщики и отделочники, начальники пожарных подразделений, операторы промышленных грузовиков и тракторов, офтальмологические медтехники, массажисты, хирургические ассистенты, подсобники кровельщиков, операторы газовых компрессоров и насосных станций, кровельщики, члены экипажа судов, уборщики и горничные, операторы асфальтоукладочной и уплотнительной техники, операторы лесозаготовительной техники, операторы моторных лодок, санитары, шлифовщики полов и отделочники, операторы железнодорожной техники (рельсоукладчики), формовщики и литейщики, операторы очистных сооружений, операторы мостов и шлюзов, операторы земснарядов.

Теги:
Всего голосов 1: ↑1 и ↓0+3
Комментарии0

Вклад авторов