Pull to refresh
4
0.5
Send message

С учётом того, что на начальном этапе они как раз были неспособны нарисовать руку с 5 пальцами, не ясно, критика это или похвала)
Если критика, то попробуй запрос polydactyly

Гуглится слон-инвалид

Ну так о чём я и говорю.

В любом поисковике гуглится без проблем. Были ли они в обучающей выборке - не знаю.

Тут это более интересно с точки зрения того, что это пример задачи, с которой не напрягаясь справляется 2-летний ребёнок. Потому что он понимает, что вот это - слон, это хобот. Рисует слона, но не рисует хобот.

Но с которой не справляются передовые модели генерации изображений, потому как они обучены на огромном массиве изображений слонов с хоботами. В них, по сути, заложено представление об "эталонном" образе слона, и они не могут его просто так взять, и разделить на составные части.

Я каждый год даю им эту задачу - и они не справляются.

Слон без хобота - аналогично.

Ну, статью для Хабра, как видим, ИИ пока ещё не может написать так, чтоб было неотличимо от человека. Значит, ещё есть куда рости.

Интересно было бы сравнить взгляд на технологии будущего в советской и западной фантастике.

Навскидку в советских произведениях явно прослеживается несколько характерных сюжетов:

  • Робот попадает в такую ситуацию, где он должен сделать моральный выбор (из не упоминавшихся в цикле примеров - "Тайна железной двери", 1970)

  • Анализ негативных последствий, к которым может привести роботизация и развитие ИИ ("Отроки во Вселенной", 1974; "Нехочуха", 1986)

  • Роботы нередко выступают, как полноценные персонажи, и не выделяются как-то на фоне живых персонажей ("Ключ", 1961; Большая умная машина из "Почемучки"; да тот же Самоделкин, наконец)

Можно выделить и другие сюжеты. Но вот распространённый в западной фантастике сюжет про масштабное восстание роботов и войну с людьми встречался, кажется, сравнительно редко. Самый известный пример - наверное, "Раз, два — горе не беда!", 1988.

В основном то, что произвольный текст, в отличие от математического утверждения, не обязан иметь строгой структуры. Схожие по смыслу фразы можно выразить при помощи разных понятий (в языковых моделях эта проблема решается при помощи векторных эмбеддингов). Понятия и связи между ними могут быть контекстозависимыми. Кроме того, в тексте может быть заложен двойной смысл, использоваться иносказания и т.п.

рассказ начинавшего писателя (и ветерана ГРУ) Анатолия Днепрова «Крабы идут по острову» 1958 года известен нашему читателю несравнимо меньше

Мультфильм по нему есть чехословацкий - "Krabi", реж. Václav Mergl.

Только не Википедия, а Викиданные.

Я то уже лет 15 в этом направлении работаю, но там столько нюансов, что можно о них отдельную статью написать.

Тут более правильной аналогией будут средневековые художники, рисовавшие различных животных, которых они в глаза не видели, но слышали какие-то их описания. Эти описания, очевидно, не содержали исчерпывающей информации, чтобы точно изобразить их объект. Но художник должен был дать полную картину, а потому был вынужден додумывать неизвестные ему детали. В результате получались странноватые изображения слонов, единорогов и прочих персонажей бестиариев.

Иными словами, ключевая разница в том, что яз. модели галлюцинируют, потому что в принципе не содержат необходимой информации, но должны сгенерировать ответ, похожий на другие ответы, соответствующие максимуму целевой функции. А плоскоземельщики и иже с ними информацию "содержат", но, она ошибочна.

Вот именно, это только первые шаги.

Классические трансформеры как галлюцинировали, так и будут галлюцинировать. Это их фича.

Чтобы избавиться от галлюцинаций, ИИ должен иметь какое-то подобие долговременной памяти, содержащей все первоисточники или в текстовом виде, или в каком-то формализованном.

Ну нет. Ложная память не имеет ничего общего с галлюцинациями языковых моделей, это разные механизмы. В первом случае это как если у нас есть БД, но из-за сбоя в ней данные изменились/пропали/возникли. Во втором - никакой БД нет вобще, есть предобученная модель, содержащая обобщение всех данных, на которых её обучили.

Ну и в норме человек как раз может оценить степень своей уверенности в том, насколько он хорошо нечто помнит. Если бы каждый, когда он не знает или не помнит каких-то фактов, начинал бы уверенно генерировать поток правдоподобных текстов, это было бы немного странновато.

современные ИИ-модели, вопреки расхожему мнению, врут и выдумывают факты реже, чем люди

Хорошая шутка.

Человек, если не знает какого-то факта, то так и скажет, что не знает. Может, конечно, сделать какое-то предположение, пуститься в фантазии. Но, в норме, скажет, что я не знаю, но могу предположить. И уж точно не станет генерировать какой-то правдоподобный ответ.

Языковые модели как раз таки наоборот всегда генерируют наиболее правдоподобный ответ, наиболее вероятный с точки зрения всей обучающей выборки. Но он совсем не обязательно будет соответствовать авторитетным источникам в данной области.

Попросите у них составить список лучших мед. учреждений по лечению какого-то заболевания, например. С американскими и европейскими он, может быть, и справится, но российские начинает выдумывать. Пусть они и звучат правдоподобно (СПб НИИ фтизиопульмонологии и клинической ревматологии им. В.А. Алмазова), но их не существует.

Ещё можете поспрашивать их по классическим литературным произведениям, попросить их закончить цитату, например. Тоже пускаются в фантазии, придумывают что-то своё из серии "слышал звон - да не знает, где он".

Просто их не обучали под такие задачи. Они не хранят в себе базу текстов или конкретные знания в структурированном виде. Они хранят закономерности текстовых последовательностей в более обобщённом виде.

Не одному. Уж больно знакомый стиль выдаёт реального автора...

Главное - не напоминайте, что обещали сделать к 2025 году 5 лет назад.

В то время ИИ рассматривался скорее как набор методов и технологий для решения конкретных задач, а не как универсальный "разум".

Ну я бы не стал так однозначно утверждать. Колмогоров, например, считал неизбежным создание искусственного интеллекта, сопоставимого с человеческим и превосходящим его.

Например, у GPT-4 Turbo спросили, использовалась ли масштабная броня в определённый период в древнем Египте. Модель ответила утвердительно, хотя технология появилась в Египте только через 1500 лет позже.

Она, походу, и с переводом понятия "scale armour" не справилась. "Масштабная броня".

В оригинальной статье пара видеороликов есть с примерами моделей. Что ж вы их не добавили...

Не удивительно. Это пока ни одной модели не под силу.

"Человек делает мало коммитов, значит, он ничего не делает". Это - сильно.

Сразу вспоминается история из "Совершенного кода":

Несколько лет назад я работал над проектом Минобороны, и как-то на этапе выработки требований нас посетил куратор проекта — генерал. Мы сказали ему, что работаем над требованиями: большей частью общаемся с клиентами, определяем их потребности и разрабатываем проект приложения. Он, однако, настаивал на том, чтобы увидеть код. Мы сказали, что у нас нет кода, и тогда он отправился в рабочий отдел, намереваясь хоть кого-нибудь из 100 человек поймать за программированием. Огорченный тем, что почти все из них находились не за своими компьютерами, этот крупный человек наконец указал на инженера рядом со мной и проревел: «А он что делает? Он ведь пишет код!» Вообще-то этот инженер работал над утилитой форматирования документов, но генерал хотел увидеть код, нашел что-то похожее на него и хотел, чтобы хоть кто-то писал код, так что мы сказали ему, что он прав: это код.

Information

Rating
2,353-rd
Registered
Activity