Интересно было бы сравнить взгляд на технологии будущего в советской и западной фантастике.
Навскидку в советских произведениях явно прослеживается несколько характерных сюжетов:
Робот попадает в такую ситуацию, где он должен сделать моральный выбор (из не упоминавшихся в цикле примеров - "Тайна железной двери", 1970)
Анализ негативных последствий, к которым может привести роботизация и развитие ИИ ("Отроки во Вселенной", 1974; "Нехочуха", 1986)
Роботы нередко выступают, как полноценные персонажи, и не выделяются как-то на фоне живых персонажей ("Ключ", 1961; Большая умная машина из "Почемучки"; да тот же Самоделкин, наконец)
Можно выделить и другие сюжеты. Но вот распространённый в западной фантастике сюжет про масштабное восстание роботов и войну с людьми встречался, кажется, сравнительно редко. Самый известный пример - наверное, "Раз, два — горе не беда!", 1988.
В основном то, что произвольный текст, в отличие от математического утверждения, не обязан иметь строгой структуры. Схожие по смыслу фразы можно выразить при помощи разных понятий (в языковых моделях эта проблема решается при помощи векторных эмбеддингов). Понятия и связи между ними могут быть контекстозависимыми. Кроме того, в тексте может быть заложен двойной смысл, использоваться иносказания и т.п.
Тут более правильной аналогией будут средневековые художники, рисовавшие различных животных, которых они в глаза не видели, но слышали какие-то их описания. Эти описания, очевидно, не содержали исчерпывающей информации, чтобы точно изобразить их объект. Но художник должен был дать полную картину, а потому был вынужден додумывать неизвестные ему детали. В результате получались странноватые изображения слонов, единорогов и прочих персонажей бестиариев.
Иными словами, ключевая разница в том, что яз. модели галлюцинируют, потому что в принципе не содержат необходимой информации, но должны сгенерировать ответ, похожий на другие ответы, соответствующие максимуму целевой функции. А плоскоземельщики и иже с ними информацию "содержат", но, она ошибочна.
Классические трансформеры как галлюцинировали, так и будут галлюцинировать. Это их фича.
Чтобы избавиться от галлюцинаций, ИИ должен иметь какое-то подобие долговременной памяти, содержащей все первоисточники или в текстовом виде, или в каком-то формализованном.
Ну нет. Ложная память не имеет ничего общего с галлюцинациями языковых моделей, это разные механизмы. В первом случае это как если у нас есть БД, но из-за сбоя в ней данные изменились/пропали/возникли. Во втором - никакой БД нет вобще, есть предобученная модель, содержащая обобщение всех данных, на которых её обучили.
Ну и в норме человек как раз может оценить степень своей уверенности в том, насколько он хорошо нечто помнит. Если бы каждый, когда он не знает или не помнит каких-то фактов, начинал бы уверенно генерировать поток правдоподобных текстов, это было бы немного странновато.
современные ИИ-модели, вопреки расхожему мнению, врут и выдумывают факты реже, чем люди
Хорошая шутка.
Человек, если не знает какого-то факта, то так и скажет, что не знает. Может, конечно, сделать какое-то предположение, пуститься в фантазии. Но, в норме, скажет, что я не знаю, но могу предположить. И уж точно не станет генерировать какой-то правдоподобный ответ.
Языковые модели как раз таки наоборот всегда генерируют наиболее правдоподобный ответ, наиболее вероятный с точки зрения всей обучающей выборки. Но он совсем не обязательно будет соответствовать авторитетным источникам в данной области.
Попросите у них составить список лучших мед. учреждений по лечению какого-то заболевания, например. С американскими и европейскими он, может быть, и справится, но российские начинает выдумывать. Пусть они и звучат правдоподобно (СПб НИИ фтизиопульмонологии и клинической ревматологии им. В.А. Алмазова), но их не существует.
Ещё можете поспрашивать их по классическим литературным произведениям, попросить их закончить цитату, например. Тоже пускаются в фантазии, придумывают что-то своё из серии "слышал звон - да не знает, где он".
Просто их не обучали под такие задачи. Они не хранят в себе базу текстов или конкретные знания в структурированном виде. Они хранят закономерности текстовых последовательностей в более обобщённом виде.
В то время ИИ рассматривался скорее как набор методов и технологий для решения конкретных задач, а не как универсальный "разум".
Ну я бы не стал так однозначно утверждать. Колмогоров, например, считал неизбежным создание искусственного интеллекта, сопоставимого с человеческим и превосходящим его.
Например, у GPT-4 Turbo спросили, использовалась ли масштабная броня в определённый период в древнем Египте. Модель ответила утвердительно, хотя технология появилась в Египте только через 1500 лет позже.
Она, походу, и с переводом понятия "scale armour" не справилась. "Масштабная броня".
"Человек делает мало коммитов, значит, он ничего не делает". Это - сильно.
Сразу вспоминается история из "Совершенного кода":
Несколько лет назад я работал над проектом Минобороны, и как-то на этапе выработки требований нас посетил куратор проекта — генерал. Мы сказали ему, что работаем над требованиями: большей частью общаемся с клиентами, определяем их потребности и разрабатываем проект приложения. Он, однако, настаивал на том, чтобы увидеть код. Мы сказали, что у нас нет кода, и тогда он отправился в рабочий отдел, намереваясь хоть кого-нибудь из 100 человек поймать за программированием. Огорченный тем, что почти все из них находились не за своими компьютерами, этот крупный человек наконец указал на инженера рядом со мной и проревел: «А он что делает? Он ведь пишет код!» Вообще-то этот инженер работал над утилитой форматирования документов, но генерал хотел увидеть код, нашел что-то похожее на него и хотел, чтобы хоть кто-то писал код, так что мы сказали ему, что он прав: это код.
Не знаю на счёт o1, но 4 и 4o на вход изображения тоже принимают, не только текст. Соответственно, можно и нужный кадр из видеовопроса прикрепить, и скриншот с предметом, что я не так давно делал.
Попробовал "скормить" GPT-4 несколько вопросов из весенней серии ТелеЧГК. Вопросы брал наиболее логичные, "раскручиваемые". Хотел сравнить её с другими моделями (Gemini, Claude). Но увидел, что результаты не особо впечатляют, и не стал продолжать. Правильных ответов было сравнительно немного, и большинство были взяты за счёт эрудиции. По сравнению с моими предыдущими опытами с GPT-3.5 на вопросах из зимней серии 2022, серьёзного прогресса я не заметил.
Посмотреть, как справится с этими вопросами 1o, было бы интересно.
получается, что должно быть "objom"? это ведь намного лучше, чем "objhyom".
Опять же, всё зависит от цели, для которой мы используем транслитерацию. Если для простой переписки - то, конечно, гораздо лучше, тут без вариантов. Если для кодирования последовательности кириллических символов в латинские без потерь - то нет.
На практике можно найти много примеров нестандартных сочетаний букв. Это и неологизмы, и аббревиатуры, и всякие коды - как то автомобильные номера, децимальники, наименования микросхем. И вот тогда уже заточенная под общепринятую литературную норму система забуксует, когда столкнётся с необходимостью транслитерировать какую-нибудь "Операцию Ы".
Так тут, как говорится, палка о двух концах. Ориентируемся на один показатель - приносим в жертву другие.
В моём варианте удобство чтения было принесено в жертву однозначности отображения и, по возможности, соответствия фонетике.
Максимизируем удобство чтения - значит, ориентируемся только на фонетику и краткость. Но тогда надо смириться с трудностями, которые возникнут при переводе в латиницу каких-то нестандартных слов, таких, как "Ыа" и "Ый" (реки в России), "Куанъинь" (китайский император) и т. п. Ну а, тем более, с невозможностью перевода в латиницу произвольного набора букв.
Мне интересно, если я "ошибусь" и напишу "obyom" - оно ведь будет читаться совершенно так же, по предложенным вами правилам.
Интересно было бы сравнить взгляд на технологии будущего в советской и западной фантастике.
Навскидку в советских произведениях явно прослеживается несколько характерных сюжетов:
Робот попадает в такую ситуацию, где он должен сделать моральный выбор (из не упоминавшихся в цикле примеров - "Тайна железной двери", 1970)
Анализ негативных последствий, к которым может привести роботизация и развитие ИИ ("Отроки во Вселенной", 1974; "Нехочуха", 1986)
Роботы нередко выступают, как полноценные персонажи, и не выделяются как-то на фоне живых персонажей ("Ключ", 1961; Большая умная машина из "Почемучки"; да тот же Самоделкин, наконец)
Можно выделить и другие сюжеты. Но вот распространённый в западной фантастике сюжет про масштабное восстание роботов и войну с людьми встречался, кажется, сравнительно редко. Самый известный пример - наверное, "Раз, два — горе не беда!", 1988.
В основном то, что произвольный текст, в отличие от математического утверждения, не обязан иметь строгой структуры. Схожие по смыслу фразы можно выразить при помощи разных понятий (в языковых моделях эта проблема решается при помощи векторных эмбеддингов). Понятия и связи между ними могут быть контекстозависимыми. Кроме того, в тексте может быть заложен двойной смысл, использоваться иносказания и т.п.
Мультфильм по нему есть чехословацкий - "Krabi", реж. Václav Mergl.
Только не Википедия, а Викиданные.
Я то уже лет 15 в этом направлении работаю, но там столько нюансов, что можно о них отдельную статью написать.
Тут более правильной аналогией будут средневековые художники, рисовавшие различных животных, которых они в глаза не видели, но слышали какие-то их описания. Эти описания, очевидно, не содержали исчерпывающей информации, чтобы точно изобразить их объект. Но художник должен был дать полную картину, а потому был вынужден додумывать неизвестные ему детали. В результате получались странноватые изображения слонов, единорогов и прочих персонажей бестиариев.
Иными словами, ключевая разница в том, что яз. модели галлюцинируют, потому что в принципе не содержат необходимой информации, но должны сгенерировать ответ, похожий на другие ответы, соответствующие максимуму целевой функции. А плоскоземельщики и иже с ними информацию "содержат", но, она ошибочна.
Вот именно, это только первые шаги.
Классические трансформеры как галлюцинировали, так и будут галлюцинировать. Это их фича.
Чтобы избавиться от галлюцинаций, ИИ должен иметь какое-то подобие долговременной памяти, содержащей все первоисточники или в текстовом виде, или в каком-то формализованном.
Ну нет. Ложная память не имеет ничего общего с галлюцинациями языковых моделей, это разные механизмы. В первом случае это как если у нас есть БД, но из-за сбоя в ней данные изменились/пропали/возникли. Во втором - никакой БД нет вобще, есть предобученная модель, содержащая обобщение всех данных, на которых её обучили.
Ну и в норме человек как раз может оценить степень своей уверенности в том, насколько он хорошо нечто помнит. Если бы каждый, когда он не знает или не помнит каких-то фактов, начинал бы уверенно генерировать поток правдоподобных текстов, это было бы немного странновато.
Хорошая шутка.
Человек, если не знает какого-то факта, то так и скажет, что не знает. Может, конечно, сделать какое-то предположение, пуститься в фантазии. Но, в норме, скажет, что я не знаю, но могу предположить. И уж точно не станет генерировать какой-то правдоподобный ответ.
Языковые модели как раз таки наоборот всегда генерируют наиболее правдоподобный ответ, наиболее вероятный с точки зрения всей обучающей выборки. Но он совсем не обязательно будет соответствовать авторитетным источникам в данной области.
Попросите у них составить список лучших мед. учреждений по лечению какого-то заболевания, например. С американскими и европейскими он, может быть, и справится, но российские начинает выдумывать. Пусть они и звучат правдоподобно (СПб НИИ фтизиопульмонологии и клинической ревматологии им. В.А. Алмазова), но их не существует.
Ещё можете поспрашивать их по классическим литературным произведениям, попросить их закончить цитату, например. Тоже пускаются в фантазии, придумывают что-то своё из серии "слышал звон - да не знает, где он".
Просто их не обучали под такие задачи. Они не хранят в себе базу текстов или конкретные знания в структурированном виде. Они хранят закономерности текстовых последовательностей в более обобщённом виде.
Не одному. Уж больно знакомый стиль выдаёт реального автора...
Главное - не напоминайте, что обещали сделать к 2025 году 5 лет назад.
Ну я бы не стал так однозначно утверждать. Колмогоров, например, считал неизбежным создание искусственного интеллекта, сопоставимого с человеческим и превосходящим его.
Она, походу, и с переводом понятия "scale armour" не справилась. "Масштабная броня".
В оригинальной статье пара видеороликов есть с примерами моделей. Что ж вы их не добавили...
Не удивительно. Это пока ни одной модели не под силу.
"Человек делает мало коммитов, значит, он ничего не делает". Это - сильно.
Сразу вспоминается история из "Совершенного кода":
Слона без хобота нарисует?
Не знаю на счёт o1, но 4 и 4o на вход изображения тоже принимают, не только текст. Соответственно, можно и нужный кадр из видеовопроса прикрепить, и скриншот с предметом, что я не так давно делал.
Попробовал "скормить" GPT-4 несколько вопросов из весенней серии ТелеЧГК. Вопросы брал наиболее логичные, "раскручиваемые". Хотел сравнить её с другими моделями (Gemini, Claude). Но увидел, что результаты не особо впечатляют, и не стал продолжать. Правильных ответов было сравнительно немного, и большинство были взяты за счёт эрудиции. По сравнению с моими предыдущими опытами с GPT-3.5 на вопросах из зимней серии 2022, серьёзного прогресса я не заметил.
Посмотреть, как справится с этими вопросами 1o, было бы интересно.
А это доказано? Есть какая-то статистика, соцопросы, подтверждающие это утверждение? Или это просто личное мнение автора статьи?
По моему опыту, детей хотят многие. Не все могут в силу разных причин, но это уже другой вопрос.
Опять же, всё зависит от цели, для которой мы используем транслитерацию. Если для простой переписки - то, конечно, гораздо лучше, тут без вариантов. Если для кодирования последовательности кириллических символов в латинские без потерь - то нет.
На практике можно найти много примеров нестандартных сочетаний букв. Это и неологизмы, и аббревиатуры, и всякие коды - как то автомобильные номера, децимальники, наименования микросхем. И вот тогда уже заточенная под общепринятую литературную норму система забуксует, когда столкнётся с необходимостью транслитерировать какую-нибудь "Операцию Ы".
Так тут, как говорится, палка о двух концах. Ориентируемся на один показатель - приносим в жертву другие.
В моём варианте удобство чтения было принесено в жертву однозначности отображения и, по возможности, соответствия фонетике.
Максимизируем удобство чтения - значит, ориентируемся только на фонетику и краткость. Но тогда надо смириться с трудностями, которые возникнут при переводе в латиницу каких-то нестандартных слов, таких, как "Ыа" и "Ый" (реки в России), "Куанъинь" (китайский император) и т. п. Ну а, тем более, с невозможностью перевода в латиницу произвольного набора букв.
Ну... нет. Это будет читаться как "обём".