С учётом того, что на начальном этапе они как раз были неспособны нарисовать руку с 5 пальцами, не ясно, критика это или похвала) Если критика, то попробуй запрос polydactyly
В любом поисковике гуглится без проблем. Были ли они в обучающей выборке - не знаю.
Тут это более интересно с точки зрения того, что это пример задачи, с которой не напрягаясь справляется 2-летний ребёнок. Потому что он понимает, что вот это - слон, это хобот. Рисует слона, но не рисует хобот.
Но с которой не справляются передовые модели генерации изображений, потому как они обучены на огромном массиве изображений слонов с хоботами. В них, по сути, заложено представление об "эталонном" образе слона, и они не могут его просто так взять, и разделить на составные части.
Интересно было бы сравнить взгляд на технологии будущего в советской и западной фантастике.
Навскидку в советских произведениях явно прослеживается несколько характерных сюжетов:
Робот попадает в такую ситуацию, где он должен сделать моральный выбор (из не упоминавшихся в цикле примеров - "Тайна железной двери", 1970)
Анализ негативных последствий, к которым может привести роботизация и развитие ИИ ("Отроки во Вселенной", 1974; "Нехочуха", 1986)
Роботы нередко выступают, как полноценные персонажи, и не выделяются как-то на фоне живых персонажей ("Ключ", 1961; Большая умная машина из "Почемучки"; да тот же Самоделкин, наконец)
Можно выделить и другие сюжеты. Но вот распространённый в западной фантастике сюжет про масштабное восстание роботов и войну с людьми встречался, кажется, сравнительно редко. Самый известный пример - наверное, "Раз, два — горе не беда!", 1988.
В основном то, что произвольный текст, в отличие от математического утверждения, не обязан иметь строгой структуры. Схожие по смыслу фразы можно выразить при помощи разных понятий (в языковых моделях эта проблема решается при помощи векторных эмбеддингов). Понятия и связи между ними могут быть контекстозависимыми. Кроме того, в тексте может быть заложен двойной смысл, использоваться иносказания и т.п.
Тут более правильной аналогией будут средневековые художники, рисовавшие различных животных, которых они в глаза не видели, но слышали какие-то их описания. Эти описания, очевидно, не содержали исчерпывающей информации, чтобы точно изобразить их объект. Но художник должен был дать полную картину, а потому был вынужден додумывать неизвестные ему детали. В результате получались странноватые изображения слонов, единорогов и прочих персонажей бестиариев.
Иными словами, ключевая разница в том, что яз. модели галлюцинируют, потому что в принципе не содержат необходимой информации, но должны сгенерировать ответ, похожий на другие ответы, соответствующие максимуму целевой функции. А плоскоземельщики и иже с ними информацию "содержат", но, она ошибочна.
Классические трансформеры как галлюцинировали, так и будут галлюцинировать. Это их фича.
Чтобы избавиться от галлюцинаций, ИИ должен иметь какое-то подобие долговременной памяти, содержащей все первоисточники или в текстовом виде, или в каком-то формализованном.
Ну нет. Ложная память не имеет ничего общего с галлюцинациями языковых моделей, это разные механизмы. В первом случае это как если у нас есть БД, но из-за сбоя в ней данные изменились/пропали/возникли. Во втором - никакой БД нет вобще, есть предобученная модель, содержащая обобщение всех данных, на которых её обучили.
Ну и в норме человек как раз может оценить степень своей уверенности в том, насколько он хорошо нечто помнит. Если бы каждый, когда он не знает или не помнит каких-то фактов, начинал бы уверенно генерировать поток правдоподобных текстов, это было бы немного странновато.
современные ИИ-модели, вопреки расхожему мнению, врут и выдумывают факты реже, чем люди
Хорошая шутка.
Человек, если не знает какого-то факта, то так и скажет, что не знает. Может, конечно, сделать какое-то предположение, пуститься в фантазии. Но, в норме, скажет, что я не знаю, но могу предположить. И уж точно не станет генерировать какой-то правдоподобный ответ.
Языковые модели как раз таки наоборот всегда генерируют наиболее правдоподобный ответ, наиболее вероятный с точки зрения всей обучающей выборки. Но он совсем не обязательно будет соответствовать авторитетным источникам в данной области.
Попросите у них составить список лучших мед. учреждений по лечению какого-то заболевания, например. С американскими и европейскими он, может быть, и справится, но российские начинает выдумывать. Пусть они и звучат правдоподобно (СПб НИИ фтизиопульмонологии и клинической ревматологии им. В.А. Алмазова), но их не существует.
Ещё можете поспрашивать их по классическим литературным произведениям, попросить их закончить цитату, например. Тоже пускаются в фантазии, придумывают что-то своё из серии "слышал звон - да не знает, где он".
Просто их не обучали под такие задачи. Они не хранят в себе базу текстов или конкретные знания в структурированном виде. Они хранят закономерности текстовых последовательностей в более обобщённом виде.
В то время ИИ рассматривался скорее как набор методов и технологий для решения конкретных задач, а не как универсальный "разум".
Ну я бы не стал так однозначно утверждать. Колмогоров, например, считал неизбежным создание искусственного интеллекта, сопоставимого с человеческим и превосходящим его.
Например, у GPT-4 Turbo спросили, использовалась ли масштабная броня в определённый период в древнем Египте. Модель ответила утвердительно, хотя технология появилась в Египте только через 1500 лет позже.
Она, походу, и с переводом понятия "scale armour" не справилась. "Масштабная броня".
"Человек делает мало коммитов, значит, он ничего не делает". Это - сильно.
Сразу вспоминается история из "Совершенного кода":
Несколько лет назад я работал над проектом Минобороны, и как-то на этапе выработки требований нас посетил куратор проекта — генерал. Мы сказали ему, что работаем над требованиями: большей частью общаемся с клиентами, определяем их потребности и разрабатываем проект приложения. Он, однако, настаивал на том, чтобы увидеть код. Мы сказали, что у нас нет кода, и тогда он отправился в рабочий отдел, намереваясь хоть кого-нибудь из 100 человек поймать за программированием. Огорченный тем, что почти все из них находились не за своими компьютерами, этот крупный человек наконец указал на инженера рядом со мной и проревел: «А он что делает? Он ведь пишет код!» Вообще-то этот инженер работал над утилитой форматирования документов, но генерал хотел увидеть код, нашел что-то похожее на него и хотел, чтобы хоть кто-то писал код, так что мы сказали ему, что он прав: это код.
С учётом того, что на начальном этапе они как раз были неспособны нарисовать руку с 5 пальцами, не ясно, критика это или похвала)
Если критика, то попробуй запрос polydactyly
Ну так о чём я и говорю.
В любом поисковике гуглится без проблем. Были ли они в обучающей выборке - не знаю.
Тут это более интересно с точки зрения того, что это пример задачи, с которой не напрягаясь справляется 2-летний ребёнок. Потому что он понимает, что вот это - слон, это хобот. Рисует слона, но не рисует хобот.
Но с которой не справляются передовые модели генерации изображений, потому как они обучены на огромном массиве изображений слонов с хоботами. В них, по сути, заложено представление об "эталонном" образе слона, и они не могут его просто так взять, и разделить на составные части.
Слон без хобота - аналогично.
Ну, статью для Хабра, как видим, ИИ пока ещё не может написать так, чтоб было неотличимо от человека. Значит, ещё есть куда рости.
Интересно было бы сравнить взгляд на технологии будущего в советской и западной фантастике.
Навскидку в советских произведениях явно прослеживается несколько характерных сюжетов:
Робот попадает в такую ситуацию, где он должен сделать моральный выбор (из не упоминавшихся в цикле примеров - "Тайна железной двери", 1970)
Анализ негативных последствий, к которым может привести роботизация и развитие ИИ ("Отроки во Вселенной", 1974; "Нехочуха", 1986)
Роботы нередко выступают, как полноценные персонажи, и не выделяются как-то на фоне живых персонажей ("Ключ", 1961; Большая умная машина из "Почемучки"; да тот же Самоделкин, наконец)
Можно выделить и другие сюжеты. Но вот распространённый в западной фантастике сюжет про масштабное восстание роботов и войну с людьми встречался, кажется, сравнительно редко. Самый известный пример - наверное, "Раз, два — горе не беда!", 1988.
В основном то, что произвольный текст, в отличие от математического утверждения, не обязан иметь строгой структуры. Схожие по смыслу фразы можно выразить при помощи разных понятий (в языковых моделях эта проблема решается при помощи векторных эмбеддингов). Понятия и связи между ними могут быть контекстозависимыми. Кроме того, в тексте может быть заложен двойной смысл, использоваться иносказания и т.п.
Мультфильм по нему есть чехословацкий - "Krabi", реж. Václav Mergl.
Только не Википедия, а Викиданные.
Я то уже лет 15 в этом направлении работаю, но там столько нюансов, что можно о них отдельную статью написать.
Тут более правильной аналогией будут средневековые художники, рисовавшие различных животных, которых они в глаза не видели, но слышали какие-то их описания. Эти описания, очевидно, не содержали исчерпывающей информации, чтобы точно изобразить их объект. Но художник должен был дать полную картину, а потому был вынужден додумывать неизвестные ему детали. В результате получались странноватые изображения слонов, единорогов и прочих персонажей бестиариев.
Иными словами, ключевая разница в том, что яз. модели галлюцинируют, потому что в принципе не содержат необходимой информации, но должны сгенерировать ответ, похожий на другие ответы, соответствующие максимуму целевой функции. А плоскоземельщики и иже с ними информацию "содержат", но, она ошибочна.
Вот именно, это только первые шаги.
Классические трансформеры как галлюцинировали, так и будут галлюцинировать. Это их фича.
Чтобы избавиться от галлюцинаций, ИИ должен иметь какое-то подобие долговременной памяти, содержащей все первоисточники или в текстовом виде, или в каком-то формализованном.
Ну нет. Ложная память не имеет ничего общего с галлюцинациями языковых моделей, это разные механизмы. В первом случае это как если у нас есть БД, но из-за сбоя в ней данные изменились/пропали/возникли. Во втором - никакой БД нет вобще, есть предобученная модель, содержащая обобщение всех данных, на которых её обучили.
Ну и в норме человек как раз может оценить степень своей уверенности в том, насколько он хорошо нечто помнит. Если бы каждый, когда он не знает или не помнит каких-то фактов, начинал бы уверенно генерировать поток правдоподобных текстов, это было бы немного странновато.
Хорошая шутка.
Человек, если не знает какого-то факта, то так и скажет, что не знает. Может, конечно, сделать какое-то предположение, пуститься в фантазии. Но, в норме, скажет, что я не знаю, но могу предположить. И уж точно не станет генерировать какой-то правдоподобный ответ.
Языковые модели как раз таки наоборот всегда генерируют наиболее правдоподобный ответ, наиболее вероятный с точки зрения всей обучающей выборки. Но он совсем не обязательно будет соответствовать авторитетным источникам в данной области.
Попросите у них составить список лучших мед. учреждений по лечению какого-то заболевания, например. С американскими и европейскими он, может быть, и справится, но российские начинает выдумывать. Пусть они и звучат правдоподобно (СПб НИИ фтизиопульмонологии и клинической ревматологии им. В.А. Алмазова), но их не существует.
Ещё можете поспрашивать их по классическим литературным произведениям, попросить их закончить цитату, например. Тоже пускаются в фантазии, придумывают что-то своё из серии "слышал звон - да не знает, где он".
Просто их не обучали под такие задачи. Они не хранят в себе базу текстов или конкретные знания в структурированном виде. Они хранят закономерности текстовых последовательностей в более обобщённом виде.
Не одному. Уж больно знакомый стиль выдаёт реального автора...
Главное - не напоминайте, что обещали сделать к 2025 году 5 лет назад.
Ну я бы не стал так однозначно утверждать. Колмогоров, например, считал неизбежным создание искусственного интеллекта, сопоставимого с человеческим и превосходящим его.
Она, походу, и с переводом понятия "scale armour" не справилась. "Масштабная броня".
В оригинальной статье пара видеороликов есть с примерами моделей. Что ж вы их не добавили...
Не удивительно. Это пока ни одной модели не под силу.
"Человек делает мало коммитов, значит, он ничего не делает". Это - сильно.
Сразу вспоминается история из "Совершенного кода":