Представлен бесплатный ИИ-агент Academic Deep Search & QA для учёбы и любых исследований — от контрольных и рефератов до объёмных дипломов для школьников и студентов. Решение помогает по темам от математики и программирования до философии, химии и биологии, делает работу даже по узким специализациям вроде квантовой физики, включая реально полезное и системное исследование. Нейросети можно задавать вопросы онлайн и уточнять материал, менять структуру работы и добавлять новые факты. Ответ ИИ выдаёт на академическом уровне со всеми ссылками, объяснениями, цитатами и визуалом.
Неросети GPT 5 Pro и Gemini 2.5 Pro Deep Think ответили профильному эксперту Денису Ширяеву на вопрос: «Если бы за всю жизнь, человек мог бы прочитать строго 10 книг, не больше, какие книги это были бы и почему?».
Ответ ИИ:
Карл Саган — «Космос». Книга о фундаментальном строении вселенной, космогонии и скептицизме. Автор показывает красоту сомнения во всем и способы выхода за рамки традиционного мышления.
Донелла Медоуз — «Азбука системного мышления» (Thinking in Systems). Произведение, которое помогает декомпозировать любые системы: от политических партий до финансовых рынков и ИТ‑платформ и проследить их реакцию на непредвиденные обстоятельства.
Даниэль Канеман — «Думай медленно… решай быстро». Буквально азбука когнитивных искажений, а также подлинная инструкция по выживанию в мире инфошума и постоянных отвлечений.
Элизабет Колберт — «Шестое вымирание». Книга помогает проследить полный спектр изменений в человеке и обществе в контексте истории, экономики и политики.
Марк Аврелий — «Размышления». Шедевр стоицизма. Книга бустит внимание, помогает воспитать непоколебимую дисциплину, отличать контролируемые факторы от хаоса и проповедует мягкую, но твердую доброту.
Мэри Шелли — «Франкенштейн, или Современный Прометей». Книга о том, что знание и сила не даруют право, не позволяют распоряжаться чужими жизнями. Крайне актуальна в эпоху биотехнологий и нейросетей.
Вирджиния Вулф — «Своя комната». Чеклист и инструкция для воспитания истинного таланта и его развития, а также преодоления социальных, экономических, политических и гендерных барьеров.
Джордж Оруэлл — «1984». Практические пособие по тоталитаризму и новоязу, особенно, в цифровой среде.
Чинуа Ачебе — «Распад» (Things Fall Apart). Книга рассказывает о распаде колониальных империй, цене прогресса и нелегкой судьбе стран, вышедших из‑под власти метрополий. Нереальная прокачка ваших моральных ценностей.
Федор Достоевский — «Братья Карамазовы». Книга о границах истинной свободы и ответственности за свои решения и поступки. Фундаментальный анализ человеческих страстей и мотивации.
При чтении раздела постов Хабра моё внимание привлекла публикация, где автор размышлял про опечатки в промптах. Хочется вынести пару собственных мыслей из комментария в отдельный пост.
Да, слова разбиваются на токены. В токенизаторе обычно много слов английского языка, слабее представлены уже остальные западноевропейские. Некоторые языки — например русский — у многих моделей выражены как соответствие одного токена на одну букву. В любом случае, кажется, что если изменить одну букву в слове, то всё сломается, и качество ответов катастрофически упадёт, поскольку искомый токен (или их последовательность) не получится.
На деле не всё так плохо. Без каких-либо особых усилий языковые модели легко выдерживают небольшое число опечаток в промпте и не снижают качество ответов (arXiv:2407.08989). Конечно, не последнюю роль играет, в каких словах сделана опечатка (arXiv:2411.05345).
Сейчас доступ к моделям с reasoning кое-где дают даже бесплатно. Такие чат-боты не пытаются быстренько ответить, а могут несколько секунд, пару минут или хоть чертверть часа размышлять над ответом, самостоятельно искать дополнительную информацию в Интернете и вызывать другие внешние инструменты. Если заглянуть внутрь, то обычно один из первых шагов размышлений — это перефразирование пользовательского запроса. Модель говорит сама себе: «Пользователь хочет X». Из ещё одной статьи известно, что простое перефразирование пользовательского запроса повышает качество ответов (arXiv:2309.10687).
Но это всё скучные исследования. Практическая демонстрация: возможно получить хороший внятный ответ хоть на запрос вида «Rgw suddwewbxw vwrqwwb X, E%1 cwxreia>». В примере ниже ChatGPT 5 Thinking сама догадывается, что пальцы пользователя соскочили на одну клавишу влево.
На самом деле этот пример я додумал из подсмотренного на подреддите /r/OpenAI. Три недели назад реддитор mimic751 показал, что ChatGPT без размышлений ответил на вопрос с огромным числом опечаток — у пользователя пальцы не попадали по клавиатуре и нажимали на кнопки рядом с нужными буквами. При этом в отличие от моего примера это был не строгий шифр, а мешанина из примерно десятка правильных нажатий с двумя десятками опечаток.
Как видно, опечатки в промптах нежелательны, но языковые модели из-за своей статистической натуры прощают очень многое.
Илон Маск сообщил, что зарегистрировал Macrohard — компанию, которая будет выступать прямым конкурентом Microsoft. Планируется, что этот проект займётся разработкой ПО и ИИ-проектами.
«Название шуточное, но проект вполне реален!», — написал Маск. Проект Macrohard он охарактеризовал как «компанию, в которой разработкой ПО занимается исключительно ИИ», так что она будет связана с xAI. «В принципе, учитывая, что такие компании — разработчики ПО как Microsoft — сами не выпускают физического оборудования, их работу должно быть возможно полностью симулировать с помощью ИИ», — пояснил Маск.
Выводит материалы Joomla в виде меток на Яндекс.Карты. Используется API 3.0.
v.2.1.0. Что нового?
Сохранение последнего вида карты. Добавлены новые опции, позволяющие как для одного экземпляра модуля, так и для всех сохранять на устройстве пользователя последний использованный центр (координаты) и масштаб (zoom) карты. Это позволит открыть карту в том же месте после обновления страницы или при повторном открытии браузера.
Определение местоположения пользователя. Модуль может определять местоположение пользователя и центрировать карту на нём. При одновременном использовании с функцией сохранения последнего вида карты определение геопозиции будет срабатывать только в первый раз. В дальнейшем, если обнаружены сохранённые данные центра и масштаба - будут использоваться они.
CSS классы для маркеров карты. Всем маркерам карты добавлен CSS-класс wt-yandex-map-items-marker. Для просмотренных маркеров (по которым кликали) добавляется CSS-класс wt-yandex-map-items-marker-viewed, что позволит выделять просмотренные маркеры с помощью стилей в CSS-файлах вашего шаблона. Также для контейнеров маркеров ymaps на карте добавлены data-атрибуты: data-module-id - id модуля и data-marker-id - id маркера.
Обработка GET-параметров в URL.
Карта может реагировать на GET-параметры в url:
map[zoom] - устанавливает параметр масштаба.
map[center_latitude] и map[center_longitude] - широта и долгота центра карты.
map[marker_id] - id маркера, на котором центрируется карта. Таким образом вы можете создавать ссылку на карту с указанием конкретного маркера, на котором карта сфокусируется после загрузки маркеров. Например, https://site.ru/map?map[marker_id]=18465. Или же ссылку с указанием конкретных координат: https://site.ru/map?map[zoom]=16&map[center_latitude]=51.529706&map[center_longitude]=46.033922
Потребление энергии американскими дата‑центрами стремительно растет из‑за искусственного интеллекта. Они потребляют огромное количество электричества. По оценкам экспертов, ChatGPT-5 может потреблять до 20 раз больше энергии, чем ChatGPT-1. Это увеличивает стоимость электричества для всех потребителей, но если дата‑центры и ИИ‑компании получают прибыль, то граждане просто платят все больше и больше.
Житель Гарнера через чужой взломанный аккаунт Smoothie King заказал себе еды более чем на $583 — оказалось, что владелец скомпрометированной учетки так и не сменил пароль после утечки данных 8300 клиентов компании в 2023 г.
Технологическая компания Beijing E-Town обвинила Applied Materials в незаконном присвоении и продвижении технологий, полученных от двух бывших специалистов американской «дочки» E-Town.
Международная HR-компания Manpower подтвердила утечку данных около 150 тыс. человек — причиной могла быть атака группировки RansomHub.
Хакеры Saber and cyb0rg взломали ресурсы северокорейской группировки Kimsuky и выложили в открытый доступ их инструментарий и множество других данных.
Исследователи из Check Point сообщили о резком росте утечек учетных данных — в 2025 году их скомпрометировано на 160% больше, чем в 2024.
Хакеры взломали лабораторию Clinical Diagnostics NMDL и похитили данные 485 тыс. пациенток — пострадавших начнут уведомлять в ближайшее время.
Влияют ли орфографические ошибки в запросе на ответ нейросети?
Лично я часто отправляю в нейросеть сырой текст с ошибками, но она всегда меня понимает и делает то, о чём я её прошу.
Получается, нейросетям не так важно, есть ли ошибки в тексте?
Не совсем.
Нейросети устроены так, что могут догадаться, какое слово вы имели в виду. Как? Ранее я писал про токены — именно на них и разбивается текст. Давайте для примера разобьём слово с ошибкой и без: "Привет" → ["Пр", "ивет"] "Пирвет" → ["П", "ир", "вет"] Можно попробовать самим — ТУТ (нужен VPN).
Выходит, что слово с ошибкой разбилось аж на три токена, причём довольно далёких от исходного слова по смыслу.
Есть два варианта: 1️⃣ Нейросеть по контексту догадается, что это слово — "привет". 2️⃣ Такая ошибка (опечатка) не редкость, и в системе токенов (векторных представлений) токены "привет", "п", "ир", "вет" могут находиться рядом. А значит, для нейросети они будут иметь схожий смысл, и она поймёт, что вы имели в виду. * Если непонятно, что значит "находятся рядом" — можно почитать статью ТУТ, там объясняется просто но подробно.
На практике могу сказать, что в обычных вопросах и просьбах орфографические ошибки не влияют на результат. Но если ошибка полностью меняет слово или делает его непонятным, нейросеть, как и человек, постарается угадать смысл по контексту.
Идеально — писать без ошибок, чтобы получать максимально точные результаты. Но в повседневной жизни нейросеть способна сгладить ваши ошибки, как это делает человек.
Вывод: Восприятие текста нейросетью очень похоже на человеческое. Небольшие ошибки, скорее всего, не повлияют на результат, а серьёзные будут компенсированы контекстом — нейросеть догадается. Проблема может возникнуть, если ошибка превращает слово в другое существующее слово, и контекст не позволяет понять, что вы имели в виду — как и человек, нейросеть может запутаться.
Лучше избегать ошибок, но их наличие — не критично!
В новой статье на Хабре мы разбираем задачу, с которой сталкивается любой продуктовый аналитик и маркетолог.
Задача: есть бюджет B и n клиентов с разной доходностью. Как распределить деньги так, чтобы максимизировать ROI?
Дано:
Скаляр B ∈ R>0.
Вектор V = [V1, V2, …, Vn] ∈ Rn>0.
Константы: ϵ>0, Bavg>0, Bmax>0.
Найти: Vb = [Vb₁,Vb₂, …, Vbₙ] ∈ Rⁿ>0
Три подхода к решению:
1️. Линейное ранжирование
qi = (ri - Rmedian - 1) × Δ
где Δ = (ERavg - ERmin) / Rmedian
Простой, но игнорирует абсолютные разницы между клиентами.
2️. Сохранение формы распределения
Vb = V - mean(V) + ERavg
scale = (ERmax - ERmin) / (Vmax - Vmin + 1e-8)
Vb = Vb × scale + shift
Нормирует целевое распределение с учетом границ.
3️. Оптимизация через минимизацию функции потерь
По сути, это вариация подхода 2. В этом подходе мы стремимся максимально сохранить исходное распределение и минимизировать отклонения от ограничений на среднее и максимально/минимально допустимые значения, переходя к задаче оптимизации
Результаты, все формулы, примеры кода на Python и кейсы из банковской практики ждут вас в статье. Если вы аналитик, продуктолог или просто любите, когда бизнес-решения основаны на точной математике и реальных данных — это для вас.
Мы выбрали 10 топ-хабрастатей за 10 лет, а вы выберите лучший HR-бренд
Будем краткими: в этом году блогу МойОфис на Хабре исполнилось 10 лет! Мы собрали юбилейную подборку — выбрали по одной ключевой статье на каждый год. Это тексты, без которых, как говорится, нас невозможно представить, еще труднее – понять!
А вас просим оценить нас в ежегодном опросе Хабр/ЭКОПСИ. Это займёт всего 5–7 минут. Мы соберём важную обратную связь, а индустрия получит объективную картину IT-брендов в 2025 году.
Все дети знают, что много мусора создает большие проблемы для Garbage Collector. Ну а взрослые видели и НЕРЕШАЕМЫЕ! Причем, мусора было немного:
We kept digging and learned the spikes were huge not because of a massive amount of ready-to-free memory, but because the garbage collector needed to scan the entire LRU cache in order to determine if the memory was truly free from references.
Что в этом случае делают взрослые? Правильно! Взрослые в ужасе убегают...
У меня есть решение для тех, кто устал убегать: mdb.BlobMap. Это быстрая хеш-таблица, не создающая проблем сборщику мусора:
ОК, что значит "не создающая проблем"? В данном случае это значит, что весь mdb.BlobMap -- это просто массив uint64...
Как сделать так, чтобы дизайнер и фронтендер не ругались
Противостояние дизайнеров и разработчиков носит уже почти легендарный характер. Этой теме посвящены десятки статей, видосов и докладов. Однако мы в компании уверены: чтобы лучше понимать друг друга, нужно просто следовать элементарным правилам.
1. Больше общаться.
Будет круто проводить кросс-функциональные встречи, потому что единое информационное поле — всегда хорошо. Можно даже назначить «дежурных» по взаимодействию — это ответственные люди от разработки и от дизайна, которые будут время от времени срезаться и обсуждать наболевшие вопросы.
Кроме того, если подключать фронтендера на этапе разработки прототипа, он сразу сможет подсказать, что будет сделать легко, а что сложно.
2. Следить за актуальностью UI-кита.
Это база. Чтобы всем было удобно работать, в макете должен быть UI-кит. Разработчик сразу будет видеть, какие шрифты и UI-элементы возникнут в проекте. И конечно, UI-кит важно оперативно обновлять и сообщать об этом отделу фронтенда.
3. Внедрять общий процесс на всех уровнях.
Во-первых, стоит настроить взаимное ревью: разработчик смотрит дизайн, прежде чем взять его в работу, а дизайнер — готовую страницу. Во-вторых, полезно использовать общие чек-листы. Например, у нас макет нельзя передавать дальше, пока не отрисованы все состояния. И в-третьих, хотя бы иногда нужно проводить совместные ретроспективы.
Общее же правило, как и в любой коммуникации — быть готовыми к компромиссам и доверять друг другу. Подробнее о правилах коммуникации между отделами дизайна и фронтенда мы рассказали в нашем блоге.
Представлен ролик «1981 Sony Trinitron KV-3000R»: самый роскошный Trinitron из когда‑либо созданных. В видео показан рабочий ТВ от Sony и его элементная база, которую можно было чинить достаточно просто прямо в домашних условиях.
Новая статья на Habr: Опыт t2 по масштабированию BI на 4500+ пользователей
Опубликовали большой кейс о том, как компания t2 (бывший Tele2) решила одну из главных проблем российского рынка аналитики — нехватку западных BI-решений.
Главные цифры кейса: 4500+ пользователей FineBI 400+ разработчиков отчетности Кластерная архитектура с 6 нодами 3 года успешной эксплуатации
Ключевые инсайты: ✅ Как организовать автоматизированное обучение пользователей ✅ Почему безлимитные лицензии стали ключевым мотиватором миграции ✅ Как построить внутреннее сообщество поддержки в Telegram ✅ Зачем нужна поэтапная миграция с участием бизнес-пользователей
Для кого будет полезно Руководителям аналитики — практический опыт масштабирования BI IT-директорам — архитектурные решения и организация процессов Аналитикам — понимание современных self-service подходов Всем, кто планирует миграцию — реальные уроки и рекомендации
Бонус от GlowByte В статье также рассказываем об образовательном ретрите по FineBI, который стартует 25 августа: 🔸 13-дневный марафон с обновленной программой 🔸 3 эксклюзивных вебинара: FineReport Pro, AI в аналитике, 3D-визуализация 🔸 Реальные кейсы от t2, Уралсиб, Циан и других компаний 🔸 Система призов за лучшие домашние задания
В Alibaba выпустили пока бесплатный ИИ-агент для написания кода Qoder, который может сам создавать готовые приложения из простого промта. Разработчики решения написали, что это платформа для кодинга «нового поколения». Анализирует весь проект и кодовую базу, сходу понимает как именно вы пишете код и пытается делать также, разбивает сложные задачи на шаги и решает постепенно, пишет спецификацию, планирует и выполняет изменения в коде.
Many-Notes: Простые заметки в Markdown на своем сервере
Наткнулся на Reddit на небольшой, но очень интересный проект для тех, кто любит полный контроль над своими данными и ценит минимализм. Это self-hosted приложение для заметок Many-Notes.
TL;DR: Коротко о главном
Что это? Опенсорсное web-приложение для работы с Markdown-записями, спроектированное с акцентом на минимализм и полный контроль над данными. Вы разворачиваете его у себя (self-hosted).
Главная фишка: Использует базу данных (SQLite по умолчанию, но поддерживается MariaDB, MySQL и PostgreSQL) для продвинутых функций вроде многопользовательности и быстрого поиска, но при этом все заметки физически лежат в виде .md файлов. База нужна не для хранения текста заметок, а для метаданных, пользователей и индексации поиска.
Технологии: Написано на PHP, рассчитано на простую установку через Docker.
Кому зайдет? Небольшим командам или продвинутым пользователям, которым нужна своя база знаний с совместной работой, но без привязки к конкретному сервису.
Что под капотом? Ключевые возможности:
Это не просто минималистичный блокнот - внутри полноценные инструменты для командной работы. Функциональность здесь серьезная:
Многопользовательский режим и совместная работа: Можно заводить отдельных пользователей и давать им доступ к «хранилищам» (vaults). Это выводит инструмент из категории «личный блокнот» в категорию «командная база знаний».
OAuth-авторизация: Поддерживается вход через GitHub, Google, Keycloak и другие популярные сервисы.
Продвинутый редактор: Markdown + визуальный интерфейс (WYSIWYG), со сплит-панелью предпросмотра. Есть шаблоны, теги, поиск по обратным ссылкам, автосохранение.
Быстрый поиск: Используется typesense для быстрого и отказоустойчивого поиска по заметкам. Но это отдельный сервис, его тоже нужно поднять.
PWA (Progressive Web App): Приложение можно установить на рабочий стол или смартфон для более удобного доступа.
from ultralytics import YOLO
import app_adam_yagpt
# Загрузка модели YOLOv8l (официальная версия)
model = YOLO("yolo11l.pt") # Автоматически скачает, если нет
# Детекция на изображении
results = model("image2.jpg")
# Получаем текстовый вывод в переменную
detection_summary = results[0].verbose()
resp = app_adam_yagpt.main(f"С помощью компьютерного зрения я передаю тебе данные об изображении. "
f"Опиши пространство в литературной форме, и классифицируй где ты находишьcя, "
f"что за обстановка и характер мероприятия или встречи, улица это или помещение, если перед тобой: {detection_summary}. "
f"Не нужно спрашивать ничего в конце твоего описания. ")
print(resp)
# Визуализация
results[0].show() # Покажет результат
results[0].save("output.jpg") # Сохранит
В пространстве находятся пять человек, двое из которых одеты в деловые костюмы.
Присутствует телевизор, компьютерная техника — мышь и клавиатура, а также мобильный телефон.
Обстановка выглядит как офисное помещение или место для работы и коммуникации.
Собрал связку YOLOv11 + GPT, чтобы робот не просто видел объекты, но и описывал обстановку почти как человек.
Как это работает: 1️⃣ YOLO детектит объекты на изображении 2️⃣ GPT анализирует их и генерирует "очеловеченное" описание 3️⃣ Profit! - получаем не слепого робота, а полноценного собеседника!
Зачем это Адаму и Еве?
Роботы смогут:
Опознавать людей и их действия («Вы пьёте кофе?).
Находить предметы по запросу («Где мои ключи?»).
Да просто прикольно описывать этот мир! («Обстановка выглядит как офисное помещение или место для работы и коммуникации.»)
Следующие шаги: 🔜 Внедрение в «железо» - тесты на реальных роботах. 🔜 Голосовой вывод - чтобы Адам комментировал увиденное вслух. 🔜 Обратная связь - если робот ошибся, он запомнит исправление.
Сценарии использования:
Дома: «Ева, кто оставил грязную кружку?» → «Это сделал Сергей, 5 минут назад» (по детекции лица + времени).
В офисе: Адам предупредит: «Переговоры начнутся через 10 минут - в зале пока только двое».
📢 Если было интересно — подписывайтесь на мой Telegram-канал robotltdco.
Спойлер: На самом деле второй пункт («Голосовой вывод») сделан! ✔️ Но об этом позже!
Решение айти проблем эмпирическим путем и методом свободного гугла с попыткой выработать какой-то ПЛАН, чтобы его придерживаться
ну а еще мне просто нравится писать - от этого становится пусто в голове и вся полученная информация упорядочивается в изящную структуру, которая перестает быть сплошным хаосом.
а еще я люблю обратную связь и ваши комментарии (и хоть предыдущий мой пост заминусили, такая обратная связь тоже была полезна, хоть и болезненна).
А еще я вру себе (и вам), что может быть мои много буков ради буков кому-то помогут или хотя бы развлекут.
А еще дурацкая мелкомягкая ворвалась на моем (и так сложном) пути мотивации себя любимой к работе с очередной глупой ошибкой, которая не починилась с полтычка и потребовала распределения всего попавшего под руку по полочкам.
И так, мое ДАНО:
Виртуальная машина VirtualBox 7.1.6 c Windows 10 (Корпоративная LTSC) 21H2 на такой же мелкомягкой, но уже Windows 11 (Корпоративная) 23H2 с настроенным типом сети NAT (то бишь самой простой из возможных в мире виртуалбокса).
И все в целом работало стабильно до сакрального "я ничего не трогала, оно само" исчезновения интернета с виртуальной машины. Точнее пинг до 8.8.8.8 шел, а уже на ya.ru дорогу найти не мог! И казалось бы - дело в DNS! но не тут-то было!
При установке типа NAT в виртуалбоксе, адрес у системе устанавливается по DHCP и DNS приходит оттуда же. Если в свойствах интерфейса принудительно поставить имя DNS сервера на четыре восьмерки - чуда не происходило, а в тырнетик машинка напрочь отказывалась идти.
Что было проверено?
Я перезагружала виртуальную машину
Я перезагружала хост, на котором виртуальная машинка запускалась
Я выключала\включала сетевой кабель в настройках ВМки (не, ну а что? ну а вдруг?)
Я выключила к чертям интерфейс в настройках ВМки и активировала соседний с таким же типом подключения (то бишь NAT).
Я выключила брендмауер на виртуальной машинке.
И хоть попытки документирования таких вот безобразий как раз предпринимаются для упорядочивания моих сумбурных шагов к светлому будущему и решению внезапно возникающих проблем на моем пути, все встало на круги своя почти так же внезапно, как и пропало.
Упал - очнулся гипс!(с)
Последнее, что я смогла отметить и вспомнить после попытки, когда ничего не работало и чудотворным моментом появлением святого интернета на виртуальной машинке - это смена мак адреса в настройках самой виртуальной машины. До этого я еще выключила брендмауер на общественную сеть (а именно такой мелкомягкая окрестила это подключение), убедившись что после этого интернет все-равно не появился - я отправила машинку на перезагрузку (уже десятую за день, потому что вариант с "выключить\включить" все еще один из самых рабочих).