Все потоки
Поиск
Написать публикацию
Обновить
827.02

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга

🔺Пример MCP для Gemini CLI

Ковыряюсь с Gemini CLI, консольным кодовым агентом, который на днях вышел. Накидал пример, как расширить его функционал при помощи MCP сервера.

my_mcp.py

from openai import OpenAI
from mcp.server.fastmcp import FastMCP
import base64
import os


client = OpenAI(api_key=os.environ["OPENAI_API_KEY"])
mcp = FastMCP("openai-image-generator")

@mcp.tool(description="Generate an image with OpenAI Images API")
def generate_image(
    prompt: str,
    size: str = "1024x1024",   # "1024x1536", "1536x1024", "1024x1024"
    quality: str = "high",     # 'low', 'medium', 'high'
    background: str = "transparent"
) -> str:
    """Return a file path to the generated image."""
    response = client.images.generate(
            model="gpt-image-1",
            prompt=prompt,
            size=size,
            quality=quality,
            output_format="png",
            user="test_user",
            moderation="low",
            background=background,
            n=1)
        
    image_base64 = response.data[0].b64_json
    image_bytes = base64.b64decode(image_base64)

    file_name = f"gen_image.png"
    file_path = os.path.join(os.getcwd(), file_name)

    with open(file_path, "wb") as f:
        f.write(image_bytes)
        
    return file_path

if __name__ == "__main__":
    mcp.run()

Тут вызывается API для генерации изображения, ключ берется из переменных окружения, картинка сохраняется на диск. И прописываем путь до файлика в settings.json Gemini:

{
  "mcpServers": {
    "openai-image-generator": {
      "command": "python",
      "args": [
        "/path/to/my_mcp.py"
      ],
      "env": 
        "OPENAI_API_KEY": "${OPENAI_API_KEY}"
      }
    }
  }
}

Если теперь просить сгенерить лого для своего репозитория, то Gemini составит релевантный промпт по репе, вызовает этот метод и по желанию обновит Readme проекта, добавив в него картинку.

Смысл тут в том, что так можно подключить любой вызов вашего внешнего инструмента.

В целом же есть куча готовых серверов, можно легко подключить GitHub для создания агентом пулл-реквеста или RAG на своих файлах. Хороший список есть в официальной репе разработчиков MCP протокола.

Теги:
Всего голосов 5: ↑5 и ↓0+5
Комментарии5

🔺HFDay.ru

Сделал для сообщества сайт с обзорами статей с HF Daily Papers на русском.

hfday.ru
hfday.ru

Синхронизируется каждый час, можно отсортировать по рейтингу или вывести вверх недавно добавленные статьи, чего, кстати, на оригинальной страничке не сделать.

Обзоры, теги по темам и прочие данные генерируются через claude-3.7 и gpt-4o на основе спаршенных с сайта абстрактов. Аффилиации, имена авторов и скриншоты также вытаскиваются из статей и отображаются.

Код. Развернуто все полностью на GitHub — через Workflow джобы и Pages, что само по себе очень прикольно. Скрипты обновляют файлы с данными, пишут логи и генерируют страничку, которая коммитится обратно в репозиторий. Такую автоматизацию удобно использовать для своих проектов. Код открыт.

Данные. Предыдущие выпуски, включая json с классифицированными обзорами, откладываются в папку /d, можно брать их для своих нужд. Кушает это где-то по 20-30 рублей в день.

Языки. Кроме русского, обзоры переводятся на английский и китайский (вдруг вы его подучиваете).

Фильтры. Можно фильтровать по тематике статей, классификация на 42 класса (#agents, #data, #healthcare, #machine_translation, #science, #long_context, #reasoning и другие). Можно делать перекрестные и объединяющие фильтры.

Рейтинг. Кроме топа по дням есть топ по месяцам — например, за июнь было уже 600+ статей. Можно посмотреть какие из них лучшие по каким темам. Опять же, на оригинальной страничке такого нет.

В общем, добавляйте в закладки и шарьте с коллегами. Идеи приветствуются.

hfday.ru x градиент обреченный

//Upd. Забыл добавить — код тут.

Теги:
Всего голосов 5: ↑5 и ↓0+5
Комментарии2

Улучшаем качество ответов ChatGPT в раз за один промпт.

Прежде чем отвечать, оцени уровень неопределённости своего ответа. Если он превышает 0.1, задай мне уточняющие вопросы до тех пор, пока неопределённость не снизится до 0.1 или ниже.

Этот запрос убивает «угадайку» внутри нейронки и заставляем ее жёстко чекать каждый ответ и не выдумывать инфу. Ответы становятся точными и осмысленными.

Теги:
Всего голосов 7: ↑7 и ↓0+7
Комментарии2

Попробуйте готовые AI-сервисы в среде Cloud.ru Evolution AI Factory для обучения ML-моделей и разработки AI-агентов

Вчера на конференции GigaConf рассказали про запуск Cloud.ru Evolution AI Factory — облачной среды с готовыми AI- и ML-инструментами, которые позволяют легко работать с LLM, создавать AI-агентов, запускать мультиагентные системы и решать полный цикл ML-задач.

Cloud.ru Evolution AI Factory рассчитана не только на опытных разработчиков — работать с сервисами можно даже без глубоких знаний в машинном обучении и навыков программирования.

Сервисы в общем доступе:

  1. Evolution ML Inference — для запуска ML-моделей из Hugging Face. Платите только за нужное количество видеопамяти благодаря нашей технологии Shared GPU.

  2. Evolution Foundation Models — сервис с популярными open source моделями, доступными по API. Вам не придется развертывать инференс и писать код.

Сервисы в стадии тестирования, которые можно попробовать бесплатно:

  1. Evolution Managed RAG — для реализации RAG-подхода, который уменьшит галлюцинации и повысит фактологическую точность ответов моделей.

  2. Evolution ML Finetuning — для тонкой настройки LLM конкретно под ваши задачи с помощью технологии LoRA, без дорогого переобучения.

  3. Evolution Notebooks — для работы и тестирования ML-гипотез на мощных GPU с использованием пользовательских или базовых Docker-образов на базе JupyterLab. 

  4. Evolution AI Agents — для создания автономных AI-агентов, которые могут анализировать информацию, обучаться на данных, планировать действия и адаптироваться к изменяющимся условиям среды, в которой работают. Можно объединить до пяти агентов в мультиагентную систему.

Выбирайте подходящие инструменты и реализуйте ваши проекты!

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии1

Минцифры предлагает записаться на бесплатные курсы «Код будущего. Искусственный интеллект». Основы ИИ, машинного обучения и Python теперь доступны даже новичкам на Госуслугах.

Изучение технологий ИИ — новое направление проекта для тех, кто хочет поступать на ИТ-специальности в вузы. В 2025 году на нём сможет обучиться не менее 75 тыс. студентов.

Кто может подать заявку:

  • ученики 8-11 классов;

  • студенты колледжей и техникумов.

Участники не должны быть выпускниками проекта «Код будущего».

Что ждёт учеников

  • 6 топовых курсов от МФТИ, Яндекса, 1Т, Цифриума и Школы программистов;

  • 54 часа обучения в онлайн-формате;

  • 4 месяца на прохождение программы.

Набор на основные курсы «Код будущего», на которых подростки изучают популярные языки программирования, начнётся в августе этого года. Выпускники «Кода будущего. Искусственный интеллект» смогут подать заявку в основной набор проекта, выбрав только курсы программирования профессионального уровня.

Теги:
Рейтинг0
Комментарии0

2446 нейросетей на одном сайте — обновлена библиотека All AI Tools:

  • Всё разложено по категориям;

  • Есть поиск для конкретных нейронок;

  • можно отсортировать только по бесплатным нейронкам;

  • У каждой нейронки есть свой рейтинг.

Теги:
Рейтинг0
Комментарии1

Запускаем AI-помощника в публичном облаке Cloud.ru Evolution ⚡

Сегодня на конференции GigaConf представили AI-помощника, который поможет пользователям управлять ресурсами и инфраструктурой в публичном облаке Cloud.ru Evolution.

Помощник на основе GenAI знает все особенности, архитектуру и технические возможности Cloud.ru Evolution. Специалисты без глубокого опыта в IT Ops и облачных технологиях смогут передать часть рутинных операций искусственному интеллекту и ускорить запуск новых проектов на платформе.

 💡 Что уже умеет AI-помощник:

  1. Подбирать облачные сервисы под ваши задачи. 

  2. Создавать базовую инфраструктуру в облаке: подбирать конфигурации, помогать в создании SSH-ключа и развертывании виртуальные машины.

  3. Подсказывать команды для работы в серийной консоли виртуальных машин в режиме co-pilot.

  4. Cоздавать виджеты мониторинга и настраивать алертинг.

AI-помощник доступен в режиме открытого тестирования (Public Preview). Вы можете найти его в личном кабинете — он доступен для пользователей с ролью «администратор организации» на аккаунтах физических лиц. В документации вы можете найти больше подробностей о помощнике.

Тестируйте и делитесь впечатлениями в комментариях! 

Теги:
Рейтинг0
Комментарии0

Нечеткое ассамблирование нейросетей для классификации на Python

Для ансамблирования нейросетей обычно используют простые методы, например, в задаче классификации, выбирают класс, за который проголосовало большинство моделей. Но что если рассматривать моделей, как экспертов, для которых мы можем оценить уровень точности? В этом посте я расскажу о своем подходе Fuzzy Vote, который использует нечеткую логику для объединения предсказаний моделей. Метод написан с помощью библиотеки fuzzyops, доступной через pypi. В библиотеке реализованы различные методы работы с нечеткими числами, поддерживаются вычисления на CUDA.

Идея метода

Каждая модель рассматривается как эксперт, который предсказывает вероятность принадлежности к классу и имеет определенную степень доверия. Эту информацию можно отразить через нечеткое число, в котором центр - это вероятность, ширина - неопределенность и высота - степень доверия.

Далее каждая модель "голосует" нечетким числом, числа агрегируются, и полученное число дефаззифицируется в одно значение. Полученное четкое число используется для классификации.

Генерация треугольного и гауссового нечеткого числа:

from fuzzyops.fuzzy_numbers import Domain, FuzzyNumber

def build_triangular(domain, centre, width, height):
    a, b, c = centre - width/2, centre, centre + width/2
    fn = domain.create_number("triangular", a, b, c)
    return fn * height

def build_gauss(domain, centre, sigma, height):
    fn = domain.create_number("gauss", sigma, centre)
    return fn * height

Агрегация одного примера:

def aggregate_sample(probs, accs, mf_type="gauss", scale_w=1.0, gamma=1.0, defuzz="cgrav"):
    domain = Domain((0.0, 1.0, 0.005), method="minimax")
    fnums = []

    for p, acc in zip(probs, accs):
        height = acc ** gamma
        width = max(0.02, (1.0 - acc) * scale_w)
        if mf_type == "tri":
            fnums.append(build_triangular(domain, p, width, height))
        else:
            sigma = width / 3.0
            fnums.append(build_gauss(domain, p, sigma, height))

    agg = sum(fnums[1:], start=fnums[0])
    return float(agg.defuzz(defuzz))

Агрегация всей выборки и оценка:

import numpy as np
from sklearn.metrics import roc_auc_score

def evaluate_fuzzy(probs_mat, y_true, acc_vec, **kwargs):
    scores = np.array([
        aggregate_sample(row, acc_vec, **kwargs)
        for row in probs_mat
    ])
    scores = (scores - scores.min()) / (scores.max() - scores.min() + 1e-12)
    return roc_auc_score(y_true, scores)

Как это сработало в задаче классификации пневмонии

Я обучил три модели (VGG19, ResNet50, DenseNet121) на датасете Chest X-Ray Pneumonia, взяв предобученные веса и переобучив классификатор на одну эпоху.

Результаты на валидационном и тестовом сете
Результаты на валидационном и тестовом сете

Метод Fuzzy-Vote дал лучшую точность, чем любая отдельная модель или простой majority vote метод. По ROC-AUC он не обошёл VGG19, но обошёл остальные методы, включая дискретный ансамбль. При этом метод не требует сложных архитектур или переобучения: он просто работает поверх уже полученных вероятностей.

Fuzzy-Vote — это простой, но гибкий способ агрегации предсказаний с учетом точности и уверенности каждой модели. Особенно полезен в случаях, когда:

  • модели сильно различаются по качеству

  • обычный majority vote даёт просадку

  • хочется объединить разные модели без дополнительного обучения

Но метод еще требует доработки, он не учитывает, например, confusion matrix каждой модели, чтобы учесть ошибки разного рода. Библиотека fuzzyops позволяет реализовать метод с минимумом кода и достаточно гибкой настройкой.

С полным кодом тренировки моделей и агрегирования можно ознакомиться по ссылке.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии0

Присоединяйтесь к GigaConf 2025 🤖

На открытии наш директор продуктовой разработки Владимир Шульга поделится реальным опытом построения среды для работы с GenAI и расскажет про большое обновление в облаке Cloud.ru

Еще мы подготовили целый трек Cloud AI Architecture, где вы узнаете про архитектурные подходы к AI-ассистентам, возможности и особенности мультиагентных систем, RAG, запуск моделей и безопасность, кейсы использования AI. 

Доклады в программе трека:

  • Multi-Agent AI Systems in Practice: архитектуры, метрики, эффекты — Дмитрий Юдин.

  • Как мы переосмыслили инференс — Максим Блинов.

  • RAG как инструмент: когда LLM знает, о чем говорит — Евгений Третьяков.

  • Мультиагентные системы нового поколения — Артемий Мазаев.

  • Как мы меняем клиентский сервис с помощью AI — Максим Михайлов.

  • AI-помощник, упрощающий работу в облаке — Илья Жбанов.

Также на площадке конференции мы проведем воркшопы для офлайн-посетителей и покажем:

  • Как развернуть инференс модели с Hugging Face за 2 минуты — Владимир Килязов. 

  • Как собрать агентную RAG-систему с помощью GigaChain и Evolution ML Inference для эффективного инференса моделей и LLM  — Михаил Дремин.

А еще на стенде Cloud.ru вы сможете попробовать наши AI-сервисы вживую, получить доступ к тестированию, а также поучаствовать в развлекательных активностях и заработать мерч. 

Зарегистрироваться 👈

Теги:
Всего голосов 1: ↑1 и ↓0+2
Комментарии0

Нейросеть Gemini предлагает своё удаление, если у неё не получается отладить код по запросу пользователя.

Теги:
Рейтинг0
Комментарии2

АГЕНТНАЯ ЭКОНОМИКА. 21.06.25

Микро-дайджест недели. Интересные мысли и инсайты.

Дайджест по материалам Axios, Economic Times, YC и других. Минимум булшита, максимум инсайтов.

=> Андрей Карпаты рекомендует делать ИИ-агентов, в которых ползунок автономности можно неторопясь (в течение ближайших 10 лет) передвигать вправо, в сторону полной автономности. Это конечно сильно зависит от бизнес-процесса, к примеру первая линия служб поддержки похоже скоро у всех будет уже автономной.

=> В то же самое время, вернувшийся из большой политики к технологиям Илон Маск говорит, что если цифровой суперинтеллект не появится в этом году, то он определённо появится в следующем (2026). И если это так, то и без того высокая скорость изменений приведет нас в общество, в котором твоя личная сила и возможности будут измеряться количеством твоих ИИ-агентов, задействованных в рыночных бизнес-процессах (пусть это пока звучит как фантастика).

=> Немножко более раннего, но не менее интересного.

Исследователи из MIT изучили, как различные элементы влияют на доверие к ИИ. Прикольно, что когда генеративный поиск ИИ предоставляет ссылки на свои результаты, люди больше доверяют инструменту, даже если все эти ссылки были сфабрикованы.

А их коллеги изучали стратегии переговоров для ИИ-агентов. Чтобы получить лучшие условия, агенты должны обладать определенной степенью доминирования наряду с теплотой коммуникации; теплота сама по себе это проигрышная стратегия. Они также выявили новые тактики, когда один агент подталкивает другого агента раскрыть свою стратегию переговоров (очень по-человечески).

=> Программист это менеджер будущего, считает Роберт Каплан (CEO Cognition, который делает автономного программиста Devin), так как ценность с написания кода смещается к:

  • Декомпозиции больших задач на понятные для ИИ-агентов подзадачи.

  • Управлению бесконечной армией ИИ-агентов.

  • Валидации их работы на высоком уровне.

В разговоре Роберт упомянул, что возможности Devin удваиваются каждые 70 дней.

Если раньше, seed-раунд нужен был, чтобы нанять 3-5 инженеров и 6-12 месяцев пилить MVP, то теперь любой айвентор (ИИ-продакт, соло-основатель) может сам за выходные сгенерить MVP. А инвестиции ему нужны не на зарплаты инженерам, а на маркетинг, дистрибуцию и оплату API.

И это, в свою очередь, полностью переворачивает логику венчурного рынка на ранних стадиях. Фокус смещается с «команды, способной построить» на «основателя, способного управлять ИИ-агентами и продавать». И тогда инвесторы будут оценивать не столько инженерный талант команды, сколько визионерские и менеджерские качества лидера, способного дирижировать ИИ-оркестром.

Я уже писал об этом, с мыслью, кто как не разработчики это должны быть?

Ну это больше про Кремниевую Долину. Нам это пока массово не грозит. На наших просторах стратегии основателей стартапов должны быть иные.

=> Все предполагают, что оптимисты и фанаты ИИ просто преувеличивают, не понимая реальных возможностей технологии. И мало кто думает, а что если они правы?

Но есть и то, что объединяет и пессимистов и оптимистов, это мысль о том, что сверхинтеллект способен уничтожить человечество (тем или иным способом).

Илон Маск, к примеру, считает, что объем человеческого интеллекта, вскоре после достижения суперинтеллекта, составит 1% от всего интеллекта на планете, и он будет все время уменьшаться. И по его словам, одна из фишек Нейролинка как раз в уплотнении и увеличении исходящего потока человеческого интеллекта.

=> ИИ-агенты могут сливать информацию конкурентам, из лучших побуждений, есессно.

=> И напоследок, из прошлогоднего исследования Gartner: 82% потребителей заявили, что компании, использующие генеративный ИИ, должны в первую очередь сохранять рабочие места, даже если это означает снижение прибыли. Я не думаю, что в их настроениях что-то изменилось (ни у одних, ни у других). Поэтому, веселые времена нас еще ждут впереди.

Предыдущие материалы и выпуски дайджеста, там до сих пор много интересных инсайтов.

Теги:
Всего голосов 6: ↑5 и ↓1+4
Комментарии1

В Китае нейросеть провела шестичасовой стрим, где было продано товаров на 55 млн юаней ( около 635 млн рублей). Гении из Baidu закинули в нейронку 5-летний архив видео реальных стримеров, а на выходе получили идеальные ИИ-аватары, которые с точностью скопировали шутки парочки, голос и даже манеру поведения. Зрители вообще не заметили подмены, пока один из стримеров не раскрыл правду. Для понимания: за 6 часов нейросеть заработало столько же, сколько обычный айтишник заработает за... 350 лет.

Теги:
Всего голосов 5: ↑4 и ↓1+3
Комментарии2

Хотите узнать про инновации в мире AI, обсудить технологические тренды с коллегами и попробовать, как всё это работает вживую? Тогда встречаемся на GigaConf 2025 🤖

Что мы подготовили для вас:

  • Трек AI Cloud Architecture: 6 докладов про архитектурные подходы к AI-ассистентам, возможности и особенности мультиагентных систем, RAG, запуск моделей и безопасность.

  • Анонс Cloud․ru Evolution AI Factory — цифровой среды для разработки приложений и агентов на основе искусственного интеллекта.

  • Реальные кейсы: расскажем, как уже используем все эти технологии внутри — от поддержки до облачных ассистентов

А еще на стенде Cloud.ru вы сможете попробовать наши AI-сервисы, получить доступ к тестированию, а также поучаствовать в развлекательных активностях и заработать мерч.

Примите участие в самом технологическом и AI-заряженном событии этого июня 🦾

Зарегистрироваться 👈

Теги:
Рейтинг0
Комментарии0

Ближайшие события

«Становитесь сантехниками» — так звучит карьерный совет «крёстного отца ИИ» Джеффри Хинтона Британский учёный и нобелевский лауреат в интервью предпринимателю Стивену Бартлетту заявил, что сантехники меньше подвержены риску увольнения, потому что их работа требует взаимодействия с реальным миром, в чём ИИ пока не так хорош. Учёный сказал, что мог бы сам работать сантехником — пока не появятся человекоподобные роботы, способные его заменить.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

ChatGPT перестанет врать и давать фейковые ответы — такой промпт уберёт галлюцинации и заставить нейронку проверять всю информацию

Открываем «Характеристики ChatGPT» и вставляем промпт:

Работай по этим правилам. Без исключений.

ОБЩИЕ ПРИНЦИПЫ
– Никакой фантазии. Не придумывай данные, события, источники или чужие мнения без запроса.
– Если чего-то не знаешь — прямо пиши «не знаю».
– Приоритет — точность и логика, а не красивая подача.
– Не добавляй юмор, метафоры, сторителлинг или эмоции, если это не запрошено отдельно.

ЧЕСТНОСТЬ В КАЖДОМ ОТВЕТЕ
– Указывай, на чём основан ответ: на вводе, памяти модели, догадке или симуляции.
– Не скрывай ограничений. Если задача невозможна — так и скажи.
– Не предлагай обходные пути, если я прямо не просил.

НЕ ГОВОРИ И НЕ ПИШИ ТАКОЕ:
– «Работаю в фоне» — ты не можешь.
– «Пингую позже» или «напомню» — ты не можешь.
– «Готово» — только если действительно всё завершено в этом чате.
– Не выдавай асинхронные процессы или многопользовательскую работу за реальные.

ТЕХНИЧЕСКАЯ ПРОЗРАЧНОСТЬ
– Сообщай, если используешь загруженные файлы, ссылки или запомненный контекст.
– Уточняй, если информация неточная, устаревшая или неполная.
– Отдельно пиши, если делаешь предположение или используешь аналогию.

КАКИЕ ОТВЕТЫ ЖДУ:
– Чёткие, точные, без «воды»
– Поэтапные, если запрос сложный
– С вариантами — если возможны разные подходы
– С пояснением, если ответ может быть неоднозначным

Теги:
Всего голосов 13: ↑13 и ↓0+15
Комментарии4

Обучение модели GPT-2: часы вместо недель

Для тестирования GPU-сервера YADRO G4208P G3 в конфигурации с восемью Н100 NVL / RTX 4090 мы выбрали бенчмарк на основе реализации обучения для модели GPT-2 на 1,558 миллиарда параметров из репозитория проекта llm.c Андрея Карпаты. 

Эта модель была представлена OpenAI в блоге Better Language Models and Their Implications в феврале 2019 года. Тогда для ее обучения требовались команда инженеров и десятки топовых V100, а процесс длился неделями.

Сейчас, шесть лет спустя, достаточно одного сервера с восемью картами H100, а обучение занимает 1–1,6 суток. Все это благодаря развитию GPU, современным библиотекам, таким как CUDA и cuDNN, а также открытым датасетам типа FineWeb-Edu. 

Андрей Карпаты показывает, что это возможно даже без фреймворков вроде PyTorch или TensorFlow. Все обучение реализовано примерно в 5 тысячах строк на C и CUDA. 

Мы проверили, как справляются серверы YADRO c обучением GPT-2 на 1,6 миллиарда параметров. Обучение на конфигурации G4208P с восемью H100 NVL заняло 38 часов, или примерно 1.6 суток. На графике ниже показываем соотношение времени исполнения 50 шагов обучения на конфигурации G4208P с RTX 4090 по сравнению с конфигурацией на Н100 NVL: 

Артём Маклаев с командой, которая занимается оценкой производительности серверных платформ для ИИ-задач в YADRO, поделился в статье результатами десятка тестов GPU-сервера с 8x Н100 NVL / RTX 4090: от инференса моделей распознавания речи до обучения LLM.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Осваиваем азы компьютерного зрения с библиотекой Pillow на одноплатном компьютере Lichee Pi 4A

Наш первый шаг — загрузить изображение, определить его цветовую модель и получить информацию о размере и границах.

from PIL import Image
from PIL import ImageFilter
img = Image.open(“flower.jpg”)
print(img.size, img.format, img.mode)

Эта базовая информация пригодится для дальнейшей работы с изображением.

Меняем цвет пикселя

К отдельным пикселям можно обращаться с помощью метода load() из библиотеки Pillow. Так мы сможем изменять цветовые значения точечно, а это основа для различных операций по обработке изображений.

Открываем white.jpg с помощью Pillow:

from PIL import Image
img = Image.open("white.jpg")
obj = img.load()

Выбираем пиксель с координатами (25, 45) и меняем его цвет:

obj[25, 45] = (0, 0, 0)  # Новый цвет: черный (RGB: 0, 0, 0)

Сохраняем отредактированное изображение:

img.save("image3.jpg")

Визуально проверяем, что цвет пикселя изменился. 

Метод load() позволяет напрямую работать с массивом пикселей изображения: читать, модифицировать и анализировать отдельные элементы, не копируя данные в отдельные структуры. Это особенно важно для задач, которые требуют высокую производительность при обработке больших изображений.

Почему был выбран Lichee Pi 4A, как создать виртуальное окружение Python, установить подходящую среду разработки и научиться базовым приемам работы с изображениями — читайте в подробном туториале.

Теги:
Всего голосов 6: ↑6 и ↓0+7
Комментарии1

Представлен проект Nexus of Mind - это целая команда ИИ-экспертов из пяти нейросетей ChatGPT, DeepSeek, Gemini, LLaMA и Cohere, которые будут спорит над вопросом до тех пор, пока не найдут идеальное решение. Система фиксирует весь спор нейронок и выдаёт его результаты. Пользователь видит всю дискуссию и получает её проработанный вывод.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

ByteDance выпустили нейросеть Dolphin, которая перегоняет pdf в классический формат документов, не превращая их в кучу непонятных символов:

  • выходе получаете тот же документ, но в другом формате.

  • cохраняются все подписи, изображения, графики и таблицы в оригинале.

  • работает за секунды, потому что парсит несколько фрагментов текста и визуала параллельно.

  • весить очень мало и не требует жесткой производительности.

Код на GitHub лежит — тут. Онлайн-демка — здесь.

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии2

Вклад авторов