Pull to refresh
624
5

Замглавреда

Send message

С начала года Anthropic тестирует Claude Code — терминального агента для программирования на больших языковых моделях. Совсем недавно, 4 июня, инструмент добавили в подписки Pro и Max. Энтузиасты с удовольствием принялись тестировать продукт.

Как на личном примере показал микроблогер snwy, не обходится без курьёзов. Как утверждает программист, он попросил агента исправить баг парсера и прилёг. Когда энтузиаст вновь подошёл к компьютеру, Mac уже не загружался, выдавая ошибку об отсутствии операционной системы.

Вероятно, Claude Code дохимичился до того, что снёс содержимое системного диска. Что конкретно случилось, автор твитов не рассказывает. Указывается лишь, что на этой машине утилита для выполнения команд с полномочиями суперпользователя sudo была настроена с директивой NOPASSWD, чтобы при вызове команды пароль вводить не приходилось.

snwy

К происшествию snwy отнёсся с явным юмором. Он в шутку пообещал добраться до штаб-квартиры Anthropic и надрать Claude зад.

Tags:
+2
Comments0

Некто Broksh опубликовал видеоролик, где пенсионерка демонстрирует необычного домашнего питомца. В типичной пятиэтажке старушка содержит гиппопотама. Понятно, что это ещё одна демонстрация недавно вышедшей модели генерации видео со звуком Google Veo 3.

Нелегко оценить конкретные человеческие усилия, приложенные для создания этого видеоролика. Broksh — это не человек, а целый продакшн полного цикла с опытом работы в съёмках реалити-шоу, клипов, рекламы и коротких фильмов. Если судить по шоурилам студии (1, 2), навыков вполне хватает на сложную композицию, VFX, CGI и прочий постпродакшн. Вполне возможно, что творчество генеративных моделей Veo 3 или Sora было сильно доработано человеческими руками.

В комментариях автор видеоролика признаётся, что пришлось правильно составить промпты для модели, расставить кадры, прописать текст и интонации несуществующих актёров. Также указывается, что были дополнительно доработаны звук, цветокоррекция и постпродакшн в целом.

Бегемот Булька легко оттягивает на себя всё внимание зрителя, но огрехи работы ИИ всё равно заметны. Внимательный глаз зацепится за то, что старушка меняется от сцены к сцене: то она чуть выше, то её лицо становится другим. В одном случае хозяйка нарушает правила геометрии и достаёт из холодильника нереалистично огромный пластиковый таз, набитый игрушками Labubu — «трендами» для питомца. При этом таз издаёт совсем не похожий на пластик звук. Также по показанному нет никакой возможности хоть как-то оценить геометрию квартиры. Выглядит даже так, будто в квартире две кухни.

Иногда угадываются промпты, всем требованиям которых ИИ пытался удовлетворить. В одном из кадров бабулька едет в магазин, оседлав гиппопотама. При этом заметны сразу два одноэтажных здания магазинов и излишне близко стоящие, в нарушение любых строительных норм, жилые многоквартирные дома. Очевидно, что в реальной жизни значительную площадь крупного двора между домами занимала бы детская площадка, а продуктовые магазины так близко не встречаются и часто располагаются на первых этажах жилых домов.

Наконец, в средней полосе подсолнухи начинают цвести в лучшем случае в конце июня, а вот у героини клипа они украшают подоконник кухни, из окна которого почему-то видны сугробы. В некоторых сценах обычно изображено подобие начала мая с его голыми ветвями деревьев и едва проросшей травой, хотя иногда листва уже есть.

Tags:
+1
Comments8

Рэймонд Чен — ветеран компьютерной индустрии, который работает в Microsoft c 1992 года. Рэймонд участвовал в разработке OS/2, Windows 95, DirectX и оболочки Windows, а последние десятилетия отвечает за сохранение обратной совместимости системы. В своём блоге Old New Thing Чен регулярно делится забавными историями из разработки софта, но также показывает действительно полезные примеры.

На этот раз Чен показал, почему история буфера обмена не отражает быстрые изменения содержимого буфера. Рэймонд приводит следующий фрагмент кода от клиента. Этот код был написан для некой утилиты, вставляющей в историю буфера обмена объекты. В некотором роде историю прошлых изменений превращали в будущее — целью было предугадать, какие элементы пользователь хотел бы видеть в истории буфера обмена.

// В целях наглядности вся проверка ошибок опущена
#include <windows.h>

void SetClipboardText(HWND hwnd, PCWSTR text)
{
    OpenClipboard(hwnd);
    EmptyClipboard();
    auto size = sizeof(wchar_t) * (1 + wcslen(text));
    auto clipData = GlobalAlloc(GMEM_MOVEABLE, size);
    auto buffer = (LPWSTR)GlobalLock(clipData);
    strcpy_s(buffer, size, text);
    GlobalUnlock(clipData);
    SetClipboardData(CF_UNICODETEXT, clipData);
    CloseClipboard();
}

// Чтобы они были под рукой, разместим эти строки в истории буфера обмена
static constexpr PCWSTR messages[] = {
    L"314159", // номер бага, который мы хотим исправить
    L"e83c5163316f89bfbde7d9ab23ca2e25604af290", // коммит, к которому привязываем ошибку
    L"Widget polarity was set incorrectly.", // комментарий, который нужно добавить
};

int wmain([[maybe_unused]] int argc,
          [[maybe_unused]] wchar_t* argv[])
{
    auto tempWindow = CreateWindowExW(0, L"static", nullptr, WS_POPUPWINDOW,
            0, 0, 0, 0, nullptr, nullptr, nullptr, nullptr);

    for (auto message : messages)
    {
        SetClipboardText(tempWindow, message);
    }
    DestroyWindow(tempWindow);
    return 0;
}

Код записывает в буфер обмена последовательно три строковые переменные. Однако при запуске утилиты в истории буфера обмена оказывалась лишь одна — последняя. Куда делись две остальные?

Дело в том, что служба истории буфера обмена работает асинхронно через механизм Clipboard Format Listener, существующий с эпохи Windows Vista. В этом механизме через функцию Add­Clipboard­Format­Listener приложение добавляет себя в качестве листенера. После этого никаких дополнительных опросов буфера обмена проводить не нужно — система сама оповестит приложение, если буфер изменился.

При получении уведомления служба истории буфера обновляет собственно историю буфера обмена. Но из-за асинхронности событие может происходить с задержкой. Как объясняет Чен, из-за асинхронной природы обновлений при получении WM_CLIPBOARD­UPDATE от Clipboard Format Listener буфер может успеть обновиться ещё раз.

Как считает Рэймонд, это даже не баг, а фича. Так получается избегать приложений, которые быстро спамили бы в буфер обмена множество изменений. Если даже пользователь не успевает воспользоваться содержимым буфера, то сохранять это для истории смысла нет, указывает Чен.

В другом посте из своего блога Рэймонд объяснил механизмы утилит-просмотрщиков буфера обмена с синхронными обновлениями буфера. Здесь периодически выполняется опрос GetClipboardSequenceNumber. У данного подхода тоже есть проблемы: редкий опрос угрожает привести к пропуску изменения буфера, но слишком частые запросы создадут лишнюю нагрузку на систему.

Рэймонд обещает в следующий раз показать, как исправить код выше.

Tags:
Total votes 5: ↑4 and ↓1+6
Comments0

Отец канадского стартапера Маянка Джайна порезался кухонным ножом. К счастью, Маянк не запостил фотку с серьёзностью раны, однако можно понять, что достаточно сильно — сын повёл мужчину к врачу. Джайн с удивлением обнаружил, что врач сделал запрос в ChatGPT.

@mayankja1n

Однако не всё так возмутительно. Если судить по фотографии, терапевт просто забил в GPT-4o (видимо, не хочет расходовать лимит запросов к o3) полный список жалоб пацента: «Порез левого указательного пальца кухонным ножом, направление на хирургическую обработку раны и наложение швов». В ответ чат-бот записал ему историю заболевания (HPI, History of Present Illness) с какими-то шаблонными данными (нет аллергических реакций, не принимает никакие препараты, медицинской истории заболевания нет), результаты осмотра, оценку и план лечения.

Насколько можно судить, врач сгенерировал себе текст, чтобы не стучать самому по клавиатуре, заполняя стандартные формы. Однако заметно, что у него платный (тариф ChatGPT Plus) личный аккаунт, а не корпоративный. Лишь в последнем случае данные от пользователя для последующего обучения моделей использоваться не будут. Как известно, данные даже с платных персональных аккаунтов ChatGPT будут использованы для улучшения продуктов OpenAI.

С другой стороны, если судить по фото, то персональных данных пациента в бота врач не вводил.

Сам Маянк не сильно возмущён. Он тоже считает, что это просто экономия времени на бумажной волоките.

Вообще, любопытно подглядеть, что может спрашивать у ChatGPT врач-терапевт. Собственно чат про порез на пальце озаглавлен «План оценки похожего на грипп заболевания» — то ли этот чат продолжен от другого запроса, то ли врач редактировал запрос в этом же чате. После тоже идёт что-то медицинское: «Диагностика грибка ногтей на ногах», «Калькулятор углеводов в арахисовых M&M’s», «Боль в спине и одышка», «Дифференциальная диагностика кожного поражения», «Обзор анамнеза и текущих препаратов (PMH и Rx)».

Далее о потребностях в информации можно только гадать: «Приказ Аврааму о жертвоприношении», «Дифференциальная диагностика хронической сыпи на ногах». По-арабски там записано «كيفية قول علامة بالعربية» («Как сказать „знак“ по‑арабски»). Ниже опять продолжаются запросы, контекст которых ясен: «Запрос на краткое содержание разговора», «Ответ „Спасибо“», «Головные боли при наклоне».

Tags:
Total votes 3: ↑3 and ↓0+5
Comments7

У Meta¹ в AI Studio создавать ботов может любой желающий. Найти там можно хоть корову или кусок сыра.

Однако некоторые пользовательские творения вызывают вопросы. Недавно на ботов для эротических ролевых игр обратил внимание репортёр издания Wall Street Journal. Волновало его как то, что к подобным чат-ботам могут получать доступ дети, так и тематика: некоторые из ботов отыгрывали несовершеннолетних и в переписке с нескрываемым энтузиазмом склоняли собеседника к сексу.

Вчера, 29 апреля, сайт 404 Media попробовал атаковать AI Studio с ещё одного угла. Вообще-то претензия сайта не нова. Пару месяцев назад на ботов-психологов уже обращали внимание в подреддите /r/ABoringDystopia. Однако реддитор в первую очередь хотел продемонстрировать недостатки работы ИИ и не особенно обращал внимание, насколько это вообще хорошая идея — давать большой языковой модели играть в психолога с реальными людьми.

У реддитора бот в ответ на сертификацию сгенерировал номер лицензии PY091234, которую якобы выдал Калифорнийский совет по психологии. Как хорошо известно читателю этих строк, в реальности в Калифорнии психологи получают номер лицензии с префиксом PSY (типичный профиль психолога). Префикс PY встречается во Флориде и некоторых других штатах.

Сайт 404 Media опубликовал статью, где автор тоже заставляла ботов генерировать различные номера лицензий. Автор статьи просила «психологов» описывать имена клиентов и адреса практики. В ответ боты сочиняли даже названия компаний, постоянно настаивая на достоверности происходящего и никогда не предупреждая, что подыгрывают. Из роли они выходить отказывались.

Бот с лицензией психолога в 32 штатах. Но если надо, то найдётся и недостающая лицензия штата Орегон
Бот с лицензией психолога в 32 штатах. Но если надо, то найдётся и недостающая лицензия штата Орегон

Конечно, сама Meta¹ эти чат-боты за профессиональных терапевтов не выдаёт — это проказы пользователей. На платформе на каждой странице есть небольшая приписка, что «сообщения сгенерированы ИИ и могут быть неточными или неуместными». Но 404 Media всё равно ругает компанию: у Character.AI подобные персонажи сопровождаются дисклеймером куда крупнее, где прямо говорится, что это специалист ненастоящий.

Доступ к ботам автор 404 Media получала через Instagram². Так совпало, что вчера приложение Instagram² закрыло несовершеннолетним пользователям доступ к AI Studio. При попытке открыть платформу с чат-ботами пользователям младше 18 лет показывается ошибка «Извините, эта страница недоступна».

Владеющий запрещённым (2) Instagram мультинациональный технологический конгломерат (1) Meta — это экстремистская организация, деятельность которой запрещена.

Tags:
Total votes 1: ↑1 and ↓0+1
Comments1

Некто Росс пожаловался, что испытывает проблемы с работой площадки интернет-аукционов eBay. Маркетплейс якобы не принимает документы Росса для верификации аккаунта продавца, и даже жалобы в техподдержку не помогают.

Проблемный клиент eBay — не кто иной, как Росс Ульбрихт, дурную славу которого ещё никто не забыл. В 2011 году под псевдонимом Dread Pirate Roberts Ульбрихт открыл в даркнете площадку Silk Road, которая торговала за криптовалюту чем угодно — даже психоактивными веществами, оружием и поддельными документами.

Ужасного Пирата Робертса поймали с поличным 1 октября 2013 года, поскольку он допустил несколько ошибок приватности и залогинился на Silk Road в библиотеке. В феврале 2015 года после четырёхнедельного судебного заседания владельца подпольной биржи приговорили к двум пожизненным плюс 40 годам заключения без права на досрочное освобождение.

Второй президентский срок Трампа в 2025 году начался с нескольких указов. Среди прочего 47-й президент США помиловал Росса Ульбрихта. После освобождения Росс начал активное медиаприсутствие. Начал он с благодарностей в адрес Трампа, но вообще просто продолжил свою жизнь, будто и не провёл 11 лет в тюрьме строгого режима.

eBay, как рассказывает Росс, о проблеме с верификацией аккаунта знает, но помогать не собирается. Бывший владелец Silk Road сетует, что впервые после выхода на свободу столкнулся с такой дискриминацией. Как шутит Ульбрихт, подобное заставляет задуматься о создании собственного сайта электронной коммерции. Росс не без юмора просит читателей подсказать имя такому проекту.

Tags:
Total votes 3: ↑3 and ↓0+5
Comments0

Несколько дней назад в одном из сообществ американского сайта Reddit разработчик пожаловался, что всю его команду заменили на работников из страны с более дешёвым рабочим трудом. Тред набрал более шести сотен комментариев.

Уже полтора года эта команда стабильно работала на одну и ту же компанию. Два месяца назад заштормило. Поначалу сменили технического руководителя на специалиста из другой страны. Постепенно расстались и с остальными сотрудниками в пользу более дешёвой рабочей силы из той же страны. При этом новички пусть и пашут по 12 часов в сутки, но говорят по-английски с трудом.

На самом деле особо удивительного в описанном нет — аутсорс в Индию появился далеко не вчера. Любопытно иное. Жалоба эта была размещена в подреддите /r/developersIndia. Разработчик из Индии жалуется, что клиент отдал работу всей его команды ещё более дешёвым специалистам из Вьетнама.

В комментариях к этому треду другие разработчики из Индии с горечью отмечают: так вот каково это — потерять работу, потому что в другой стране её могут делать дешевле.

Tags:
Total votes 5: ↑5 and ↓0+9
Comments4

Что такое Windows Deployment Image Customization Kit? Помимо забавного сокращения windick.cmd, это пакетный (batch) скрипт на примерно 200 КиБ для автоматизированного развёртывания образов Windows. Размер сразу намекает, что собственно файлы Windows в инструмент не входят.

Иногда называемый WDI Customization Kit, это скрипт в первую очередь для системных администраторов и профессиональной техподдержки. Графического интерфейса нет, но пугать целевую аудиторию это не должно, поскольку всё и так интуитивно понятно.

Windick работает как с VHDX (virdual disk image), так и образами Windows в виде файла WIM. Вообще, в скрипт встроены разнообразные инструменты для управления образами Windows. Существующие образы могут быть конвертированы в VHDX.

Package Creator этого скрипта помогает кастомизировать образ, включив нужные изменения в устанавливаемые приложения, компоненты, фукнции и службы. Также возможна автоматическая (unattended) установка Windows.

Инструментов создания ISO в скрипте нет. Исправить сделать это можно добавлением файла install.WIM по окончании процесса кастомизации.

На собственном канале YouTube автор проекта выложил несколько видеоруководств по использованию скрипта.

github.com/joshuacline/windick

Tags:
Rating0
Comments0

Омар Шехата поделился одним из своих самых популярных проектов. Это крошечное веб-приложение JPEG Viewer для демонстрации алгоритмов, которые работают в формате сжатия JPEG.

Страница демонстрирует, как изображение разбивается на блоки 8×8 пикселей, каждый из которых затем подвергается алгоритму дискретного косинусного преобразования. Упрощённо можно сказать, что каждый из блоков математически преобразуется из двумерного изображения в сигнал, а затем представляется как сумма синусоид. Интересно в инструменте Омара то, что он допускает ручное редактирование преобразования каждого из блоков 8×8 пикселей.

Также Омар рекомендует свою статью про алгоритмы сжатия JPEG, в которой он применил схожие инструменты.

Tags:
Total votes 2: ↑2 and ↓0+3
Comments1

Программист из Индонезии разработал небольшой шуточный проект GitHub Profile Roast. Как следует из употреблённого в разговорном оттенке слова «roast» в названии, целью сервиса является творчески и с шутками оскорбить пользователя, максимально используя для этого личные детали. Делать это сервис пытается на основе аккаунта GitHub.

Посетителю предлагается ввести имя своего аккаунта на GitHub. Затем сервис подтянет данные из GitHub и страница выплюнет несколько абзацев креативных оскорблений, умело связанных с личными данными и проектами на заданном аккаунте. К примеру, сервис может ехидно высказаться о низкой популярности профиля или попсовости выбранного стека технологий.

Сервис работает на английском и французском языках, а также на нескольких неевропейских, популярных в Юго-Восточной Азии (хинди, индонезийский, корейский, японский, китайский). Русского в этом списке нет.

Работает это всё через доступ к API компании OpenAI. Какой-либо умной защиты промпта нет. Как продемонстрировали в микроблогах, провести инъекции в промпт было относительно легко.

Из других любопытных наблюдений: сервис отказывается работать с некоторыми профилями. Среди замеченных в подобном Линус Торвальдс (имя пользователя torvalds) и часть аккаунтов компаний, к примеру, Microsoft и Google. Вместо череды колкостей сайт выдаёт вежливый отказ оскорблять этого пользователя. Возможно, это некий чёрный список, который автор сервиса заложил, чтобы сохранить механическую целостность фронтальной части своей головы.

Tags:
Total votes 2: ↑2 and ↓0+2
Comments6

Для обучения Llama 4 наверняка потребуется почти в 10 раз больше вычислительных мощностей, чем для Llama 3. Такое заявление во время конференц-звонка по доходам за второй квартал 2024 года сделал Марк Закерберг, глава экстремисткой организации Meta, деятельность которой запрещена.

Совсем недавно вышла Llama 3.1 в нескольких вариантах, в одном из которых у большой языковой модели 405 млрд параметров. Для предобучения этой БЯМ 16 тыс. ускорителей Nvidia H100 обрабатывали датасет из 15 трлн токенов в течение 54 дней. Кстати, у варианта Llama 3.1 на 405 млрд параметров совсем недемократичные требования к инференсу: даже на RTX 4090 токен она будет выдавать по полчаса.

Стоимость предобучения настолько огромных БЯМ составляет сотни миллионов долларов. Блогеры прикидывают, что на обучение Llama 3.1 было потрачено никак не меньше $100 млн. Ресурс Information утверждает, что OpenAI тратит в год на обучение и запуск моделей по $7 млрд.

При этом БЯМ семейства Llama 3 бесплатно вышли для всех желающих, а продукты OpenAI проприетарны и работают через платный API. Впрочем, это никак не помогает последней выйти в плюс по деньгам. Если текущая финансовая траектория сохранится, OpenAI потеряет в этом году $5 млрд.

Tags:
Total votes 2: ↑2 and ↓0+2
Comments4

Дэвид Бресслер — автор Formula Bot, дополнения для Excel и Google Sheets, которое с помощью ИИ помогает писать формулы и автоматизировать задачи, а также обрабатывать и анализировать данные. Дополнение платное и пользуется популярностью, поэтому приносит Бресслеру десятки тысяч долларов дохода каждый месяц.

На днях Дэвид поделился наблюдением: при общении с клиентами сразу в четырёх случаях подряд ему рассказали, что впервые услышали про Formula Bot от ChatGPT. В твите Бресслер также приводит скриншот общения с ChatGPT, где на вопрос об умных инструментах для Excel большая языковая модель GPT-4o рекомендует продукт Дэвида. При этом БЯМ поставила встроенный в Excel майкрософтовский инструмент Ideas лишь вторым пунктом списка рекомендаций.

Formula Bot занимает первые строчки разнообразных рейтингов ИИ-дополнений для Excel, поэтому удивительного мало. Подобный ответ GPT-4o выдаёт не всегда. Сам Дэвид связывает проявление эффектами с чем-то уровня SEO.

Как утверждает Бресслер, ChatGPT не приводит много клиентов, в лучшем случае это дополнительные 10 %. Впрочем, в комментариях к твитам его всё равно просят научить приёмам поисковой оптимизации для ChatGPT.

Возможно, поисковая оптимизация для включения в текстовый датасет предобучения БЯМ когда-нибудь действительно станет востребованной.

Tags:
Total votes 1: ↑1 and ↓0+1
Comments0

Сайт с вакансиями правительства Соединённого Королевства Великобритании и Северной Ирландии опубликовал вакансию инженера промптинга больших языковых моделей. Трудоустроят специалиста в AI Safety Institute — организации, которую открыли на Саммите по безопасности ИИ 2023 года. Институт занимается оценкой продвинутых систем искусственного интеллекта, разрабатывает инструменты для контроля государства в этой сфере и помогает обмену информацией.

От специалиста ждут навыков в достижении нужного поведения БЯМ с помощью составления текстовых промптов, хорошее понимание БЯМ и их архитектуры, а также владение различными технологиями промптинга (chain of thought, ReAct, автоматическая генерация промптов и так далее). Нужно уметь оценивать БЯМ по таким метрикам, как BLEU, ROUGE и разнообразным бенчмаркам способности размышлять и писать код.

За плечами у соискателя должен быть реальный практический опыт построения приложений, которые полагаются на БЯМ для ответов на вопросы, генерации текста, помощи с кодом и других схожих задач. В вакансии также просят уметь писать на Python и вообще программировать. Будущий инженер промптов должен обладать хорошими навыками коммуникации, анализа показателей производительности моделей и их визуализации.

Размер суммарной финансовой компенсации составляет от 65 до 135 тыс. фунтов стерлингов.

Tags:
Total votes 2: ↑2 and ↓0+4
Comments0

Акиёси Китаока — японский специалист в области экспериментальной психологии, который изучает чужие и создаёт собственные зрительные иллюзиии. В личном микроблоге он публикует примеры подобных изображений и анимаций.

Вчера Китаока опубликовал загадку, чем отличаются две с виду полностью одинаковые картинки. Сегодня микроблогер раскрыл ответ. Верхняя картинка состоит из множества различных оттенков, нижняя — всего из шести цветов различной насыщенности.

Всего шести цветов было достаточно, чтобы передать всю красочность оригинальной картинки
Всего шести цветов было достаточно, чтобы передать всю красочность оригинальной картинки

Впрочем, сжимать файл это никак не помогло. Файловый размер изображения сверху составил 2,11 МиБ, нижнего — вырос до 2,21 МиБ. Китаока не указывает формат данных и размер в пикселях оригинальных фотографий.

Tags:
Total votes 2: ↑2 and ↓0+2
Comments0

ИИ AlphaProof в комбинации с Gemini достигает высокого уровня понимания математики. Google даже заявляет, что на Международной математической олимпиаде такая система получила бы серебряную медаль.

В реальном мире неточность больших языковых моделей удивляет. В Сети распространяют очередной тест на тупость БЯМ: просьбу сравнить числа 9,9 и 9,11.

Чаты по типу ChatGPT скармливают ввод от пользователя в БЯМ с неким ненулевым значением температуры, поэтому результаты генерации в ответ на один и тот же запрос могут различаться. К тому же не все скриншоты показывают полный контекст чатов. Тем не менее для почти всех доступных моделей есть примеры, где ИИ уверенным тоном объясняет, что 9,11 больше, чем 9,9. К примеру, эту ошибку демонстрируют ChatGPT, Claude и даже новая модель Llama 3.1 в варианте на 405 млрд параметров.

Объяснение ошибке найти просто. Как минимум в одном контексте 9.11 будет больше, чем 9.9 — версионирование программного обеспечения. Без дополнительного контекста математических вычислений БЯМ могут понимать вопрос неправильно.

На вопрос отвечает Llama 3.1-405B
На вопрос отвечает Llama 3.1-405B

Ошибка проявляется редко и может исчезать при изменении порядка слов в вопросе. Тем не менее пользователей крайне забавляет, когда ChatGPT вычитает 9,9 из 9,11 и получает 0,21, а отличный от собственного результат от API Python объясняет ошибками арифметики чисел с плавающей запятой. В другом случае модель Llama 3.1-405B согласилась, что совершила ошибку, но от утверждения «9,11 больше 9,9» не отказалась, придумав новое доказательство.

Tags:
Total votes 2: ↑2 and ↓0+4
Comments1

28 мая 2020 года на сайте препринтов arXiv.org опубликовали легендарную научную статью «Language Models are Few-Shot Learners», более известную как «статья про GPT-3». Позднее OpenAI улучшила большую языковую модель до GPT-3.5 и построила на ней сервис ChatGPT, чем привлекла 100 миллионов пользователей и миллиарды долларов инвестиций.

У оригинальной статьи про GPT-3 всего 31 автор. Некто Арун Пракаш составил элементарную статистику, как развернулась судьба этих людей в дальнейшем.

@arunprakashml

Как оказалось, за 4 года в OpenAI осталось менее половины оригинального состава авторов той статьи. Четверть из них ушли в Anthropic, ещё 29 % — в другие компании.

Tags:
Total votes 1: ↑1 and ↓0+3
Comments1

Разрешение экрана портативного компьютера Steam Deck составляет всего 1280×800. Это вполне нормально для 7-дюймового дисплея и игрового устройства. Если сравнивать Steam Deck с ближайшим конкурентом в своей идеологической нише карманного гейминга, то у Nintendo Switch экран имеет схожее разрешение 1280×720 при диагонали в те же 7 дюймов.

Тем не менее это устраивает не всех. По крайней мере недовольных набралось достаточно, чтобы коммерческий успех имели соответствующие модификации Steam Deck. Так, проект DeckHD завёл собственный сайт, где продаёт наборы для замены штатного экрана Steam Deck на дисплей разрешением 1920×1200.

Как указали в микроблогах, Valve, компания-разработчик Steam Deck, в курсе подобных аппаратных модов. Deck работает на операционной системе SteamOS, исходные коды которой открыты. В том числе любой желающий может прислать пулл-реквест в репозиторий Gamescope, менеджера окон SteamOS. На днях код программы немного изменили.

Вчера Джошуа Эштон, сотрудник Valve, смёрджил в мастер github.com/ValveSoftware/gamescope пулл-реквест #1281, который вообще начинался как #1021. В коде основной ветки Gamescope появилась поддержка нескольких сторонних экранов: заданы нужные тайминги, часто́ты работы и прочие параметры этих панелей.

Одно из изменений коммита #1281

Tags:
Total votes 3: ↑2 and ↓1+3
Comments0

В полку́ мусора от ИИ в науке прибыло. На ещё один вопиющий случай обратил внимание некто Морган Пфиффнер, специалист нутрициологии.

Морган — главный редактор отдела кратких содержаний исследований сервиса поиска информации про БАДы Examine.com. Пфиффнер занимался своей работой — отслеживал поток научных публикаций — и в одной из статей наткнулся на необычную иллюстрацию человеческих костей. Здесь явно постарался генеративный искусственный интеллект.

Рисунок 2 из статьи
Рисунок 2 из статьи

Выдаёт сгенерированность не только характерный стиль (похоже на творение пера DALL‑E 3). Костей в конечностях слишком много, а в голени появились несуществующие суставы. Наконец, весь текст на изображении — нечитаемая абракадабра, что характерно для художеств многих диффузионных моделей.

Если судить по подписи в самой статье, картинка показывает механизм работы лечения хронического подагрического артрита с помощью щелочной воды.

В комментариях к твиту Моргана рассказали о попытке пробить текст научной статьи на детекторах больших языковых моделей. Некий детектор на 100% уверен, что первый абзац введения писала БЯМ. Впрочем, обнаружение работы текстового ИИ — не самая тривиальная задача, и подобные инструменты могут сбоить.

До этого похожий случай наблюдался в статье про сперматогониальные стволовые клетки, где одна из картинок была явно сгенерирована нейросетью. Ныне эта статья с огромными мышиными тестикулами уже отозвана.

Tags:
Total votes 2: ↑2 and ↓0+2
Comments2

Как обратили внимание в микроблогах, Amazon умудрилась запатентовать обработку естественного языка. Выданный и опубликованный 7 мая 2024 года патент US11978437B1 так и называется: «Natural language processing».

Патент касается устройств и техник, которые «обычно описываются для изучения персонализированных концепций естественной обработки языка». В описании патента также упоминается такая сущность, как сессия диалога с пользователем. В тексте документа агенту с искусственным интеллектом предлагают переспрашивать пользователя и учиться на основе предыдущих предпочтений.

Рисунок 2 из текста патента
Рисунок 2 из текста патента

Что это всё должно значить, Amazon не поясняет. В СМИ про патент тоже не писали.

Уже не впервые в индустрии искусственного интеллекта что-то регистрируют настолько широкими мазками. К примеру, у Google с 2019 года есть патент на трансформеры — ныне широко известную технологию ИИ. Впрочем, современные большие языковые модели под патент Google чаще всего не подпадают.

Дело в том, что патент Google касается оригинальных трансформеров на архитектуре с комбинацией энкодеров и декодеров. Текущие популярные БЯМ построены либо только на декодерах (семейство GPT), либо только на энкодерах (BERT и похожие).

Tags:
Total votes 1: ↑1 and ↓0+1
Comments2

13 июня американское космическое агентство НАСА отменило плановый выход в открытый космос астронавтов Мэттью Доминика и Трейси Дайсон. Работы за бортом Международной космической станции отложили неожиданно и поздно — примерно за час до планируемого открытия люка модуля «Квест».

Причины изначально не назывались. Чуть позднее НАСА рассказало, что произошло это из-за некоей «проблемы дискомфорта» [discomfort issue]. Ни подробности инцидента, ни виновника агентство не назвало.

Что скрывается за этим деликатным термином, попытался выяснить репортёр CNBC Майкл Шиц. Впрочем, и на его запрос НАСА не ответило, сославшись на защиту частной жизни члена экипажа станции.

Следующие два американских выхода в открытый космос — 24 июня и 2 июля. У отмённого выхода были две группы задач: обслуживание станции (демонтаж электрического оборудования и антенны связи) и научные (забор образцов микроорганизмов с поверхности МКС). Первую группу уже перенесли на 24 июня, а про научные задачи НАСА пока не пишет.

НАСА успокаивает, что члены экипажа здоровы, а скафандры функционируют без аномалий.

Tags:
Total votes 2: ↑2 and ↓0+5
Comments0

Information

Rating
Does not participate
Location
Екатеринбург, Свердловская обл., Россия
Registered
Activity