Такая проблема есть, конечно. В медицине это особенно существенно. Но существуют и интерпретируемые нейросетевые модели, и эта область развивается. Фактически, у банка может быть не нейросеть, а более простая модель, причины поведения которой можно понять. Но тот человек, который сидит на суппорте возможностями для этого не обладает.
С другой стороны, есть обычные программы, которые стали настолько сложными, что никто точно не знает, как и почему они работают. Да и люди не всегда могут объяснить свое решение. "Нутром чую" - популярное объяснение. Или встречается ситуация когда человек поступает неразумно, но для других притягивает какое-то логическое объяснение, которое не имеет отношение к реальной причине. То что вы описываете, это не столько проблема технологий, сколько того, что тем кто их использует в принципе наплевать на то, что кому-то "не повезло". Ну и опять в этом есть еще один аспект, мы все хотим и привыкли, что платежи и переводы проходят за минуту, а то и за секунду, а не за пять дней. Чтобы так работало, контроль операций просто должен быть автоматическим и достаточно надежным. Уберем все нейросети и "черные ящики", получим ситуацию, когда перевод идет неделю, как было раньше.
За 6 лет работы компании в чистом виде классификация предложений попадалась может быть 2-3 раза на примерно 600 проектов. На практике редко кому нужны классические задачи обработки языка. Людям нужно "сделать чат-бот, чтобы все понимал и отвечал на вопросы на основании текста сайта" или "достать из PDF файла с договором важные условия, определив в чем их суть", "разделить транскрипт видео на подразделы и написать к ним заголовки", "найти противоречия в инструкциях", "достать из описания товара параметры и на их основании написать новое описание" - т.е. продукт который решает их реальную задачу, в которой много исключений и мало данных.
Возможно классификатор у них действительно научился ассоциировать слова «политик» и «болтун», так как они часто встречаются вместе (ну и по цепочки политик — говорит, говорит похоже на болтать). Или просто на странные слова реагирует, если не знает о чем, то блокирует.
Ну вот вам задача номер 1, отличить в тексте научной статьи подпись к рисунку от остального текста. Нужно понять, что
Рисунок 1 Колонии E.Coli на чашках Петри — это подпись, а
Рисунок 1 показывает нам изображение колоний E.Coli — это упоминание рисунка в тексте.
обучающих примеров 10 штук. Какая будет точность у FastText?
Задача номер два. Нужно из команд вида:
Создать новый объект, называемый большой треугольник и поместить его в начало координат, увеличив размер в 3 раза — достать имя объекта, куда надо поместить, сколько сделать размер. Написать человек может что угодно и как угодно. Примеров для обучения 5-6 штук. С таким числом примеров эти задачи ничего не берет кроме ручного придумывания правил, что долго и плохо. А GPT-2XL их неплохо решает.
Генерация текстов это только одно из применений, как я писал есть генерация программного кода, дизайна, решение задач извлечения информации из текста.
В копирайтинге нейросети используются уже какое-то время, есть специальные сервисы вроде copy.ai, conversion.ai, aiwriter.ru, но смысл их не в том, чтобы делать работу за копирайтера, они предлагают варианты из которых человек выбирает нужный и соединяет все вместе. Таким образом, отвечает за инстинность контента все равно человек.
Пока сложно сказать. Мы пробуем ее применять в сервисе генерации текстов, но с тех пор как Яндекс сделал бесплатный вариант с кучей функций спрос на него уменьшился, поэтому времени и ресурсов на этот проект уже будет сложно найти.
Возможно, если получится довести до ума, дообучить на большом объеме и поправить узкие места в коде, напишем статью с детальным описанием подхода и выложим какой-то вариант для всех.
Самое ужасное, это то, что большая языковая модель в любом случае содержит информацию про все запрещенное, и на этом основании можно распространение весов таких сетей притянуть к распространению запрещенной информации и собственно запретить. Даже если в датасете не было ничего явно запрещенного, достаточно большая модель может сочинить что-то на заданную тему от себя.
Google опубликовал исходный код Switch Transformer, но не веса, без весов это бесполезно, т.к. нужно обучать и значит нужны вычислительные ресурсы. Что касается весов, то самая большая английская модель в публичном доступе обучена Facebook AI с помощью Megatron LM и ее размер 11 миллиардов параметров. Следующая за ней по размеру это 6b.eleuther.ai от Eleuther AI.
Фактически, судя по всему размер имеет большее значение чем архитектура Transformer, можно сделать аналогичную модель на сверточных сетях и получить аналогичный результат. Ценность большого размера именно в low-shot learning, когда данных ну просто нет, или их дорого получать (например, диалоговые системы) или сложно размечать (научные тексты). В этом плане нас GPT2-XL реально несколько раз спасал, когда был сложный заказ. Кое-где это действительно волшебство, но волшебство довольно неустойчивое и требующее навыка в обращении с ним.
С другой стороны ресурсозатраность кажется непропорционально большой. Мы в 2015 делали генератор обобщения отзывов (по задаче похожий на то, что Яндекс сейчас делает в Маркете), и генератор заголовков объявлений для контекстной рекламы. И в итоге там было 50 нейронов в скрытом слое и 250000 параметров, и он генерировал таки отзывы и заголовки, чуть похуже качеством, но всегда по заданной теме (можно почитать тут habr.com/ru/company/meanotek/blog/259355 и тут www.dialog-21.ru/digests/dialog2015/materials/pdf/TarasovDS2.pdf. Так что часто можно в архитектуру вложить некоторые свойства, которые решают конкретную задачу и требуют в 100 раз меньше ресурсов. Но это долго и возни много. А большую модель подключил и можно радоваться, думать не надо.
PS Полеты на Луну были бы дешевле, если бы удалось построить «башню» (космический лифт) на орбиту, но это похоже технически невозможно или крайне проблемно сделать.
Честно говоря, совсем не понял чем существование предложения опасно для будущего и причем тут Путин.
Любая обучающаяся система будет работать плохо, если ей дать неправильные данные для обучения, мозг человека не исключение. Это не отменяет ценности таких систем для практики в решении практических задач.
PS. Пример с 2+2=5 немножко уже стал банальным. Если уж на то пошло, что 2+2=4 это не всегда непреложная истина. Например, в эксперименте с рассеянием электронов на щелях, можно взять два электрона и на вход и в результате «сложения» получить на выходе 4 или 0 в зависимости от места расположения детектора.
Это первые два примера из 10 которые я сделал для статьи. Подумал, что все 10 это уж очень много текста. Вообще они средние, есть получше, но есть и хуже ситуации. YaML, например, знает, что теорию гравитации создал Ньютон, а моя модель пишет упорно, что Кант. Скорее всего связано с тем, что Яндекса все-таки был терабайт текста и обучалась она дольше.
Что такое «недоразвитость»? Определение, исследования показывающие эффективность игр в ее устранении?
Я исхожу из этого, что свойства не подходит по критерии какого-то либо заболевания. Потому что в противном случае ему надо идти к грамотному врачу для назначения лечения. То есть это медицинская проблема и место ей на медицинском форуме, а не тут.
Если же мы всё-таки исходим из того, что это вариант нормы, которому в силу определенных особенностей сложно учить программирование, то в этом случае он подпадает под «healthy adult». Так как healthy adult это не значит, что нет выявленного клинического расстройства, только и всего. При этом условный IQ может быть 85 или 120 и это все будет норма с точки зрения исследования.
Ну формально нет понятия «клиповое мышление», но есть СДВГ (синдром дефицита внимания) и есть объективные научные данные, что социальные сети и мессенджеров это фактор риска развития симптомов, так что основа есть у этого явления.
Игры типа Lumosity крайне бесполезны в решении этой задачи. Метаанализ всех работ по эффективности подобных игр показывает, что улучшается в основном способность играть именно в эти игры, но на другие задачи это не переносится. В самом лучшем случае можно чуть-чуть улучшить рабочую память, но этот эффект тоже не помогает в решении задач.
См.
Harrison, Tyler L., et al. «Working memory training may increase working memory capacity but not fluid intelligence.» Psychological science 24.12 (2013): 2409-2419.
Soveri, Anna, et al. «Working memory training revisited: A multi-level meta-analysis of n-back training studies.» Psychonomic bulletin & review 24.4 (2017): 1077-1096.
Thompson, Todd W., et al. «Failure of working memory training to enhance cognition or intelligence.» PloS one 8.5 (2013): e63614.
Термин «Снежинка» скорее неудачный, так как он обозначает все-таки другое несколько явление и изначально использовался в оскорбительном контексте.
Но сама проблема описанная похоже имеет место быть. Случилось так, что я некоторое время пытался предметно ее изучать и решать. Для удобства изложения я оставлю термин «снежинка» в кавычках для обозначения описанного в статья явления, оговорившись, что речь не идет о каком-то стремлении унизить — никто не виноват, что он рос в среде, создающей определенные проблемы.
Что известно объективно относительно влияния среды:
Есть научные данные, что соцсети провоцируют симптомы синдрома дефицита внимания (см. хотя бы jamanetwork.com/journals/jama/article-abstract/2687861), а также депрессии. Есть результаты, что доступность данных через интернет негативно влияет на способность вспомнить прочитанное ( onlinelibrary.wiley.com/doi/abs/10.1111/ejn.13039 ) ну и еще много подобных отдельных вещей, которые видимо складываясь вместе дают описанные в статье проблемы. Про клиповое мышление и 15 минут это упрощение сильное.
Что я субъективно увидел, пытаясь научить условных «снежинок» программированию:
1. Есть проблемы с просмотром «в глубину», не связанные со временем непосредственно — сложно проанализировать неочевидные последствия какого-либо действия
2. Проблемы при работе с абстрактными концепциями, но не просто проблемы, а непонимание и активное неприятие того, что абстрактные концепции вообще нужны
3. Неприятие любых инструментов, использование которых кажется неудобным или непонятным сразу
4. Снижение способности переносить дискомфорт при решении задач которые сразу не решаются (что наверное ближе к оригинальному значению термина)
Есть еще несколько моментов, но это в комментарий уже не помещается.
Простыми способами (типа просто решить, быть внимательным) это не решается. Нельзя просто дать книгу по проектированию (т.к. нет понимания что есть абстракция и то что это нужно вообще и понимания того, что нужно чтобы понять смысл абстракции). Нельзя дать просто упражнения на внимание. Плохо помогает давать какие-то костыли типа шаблонов.
Начав с перебора таких простых моментов, как-то постепенно это выросло в учебную программу, в которой мы пытались бороться со всем этим комплексно, с теорией и упражнениями по каждому выявляемому проблемному пункту и вроде бы какие-то результаты это начало давать.
Но количественно результаты оценить сложно, так к сожалению в маленькой компании ресурсов на такие опыты не очень много, и авторитета не хватает (обучающиеся подозрительно относятся к тому, что их учат «как-то не так», как они привыкли). В итоге за неимением ресурсов пока приостановили это занятие, размышляем нужное ли это дело вообще.
На практике, как я думаю, этим не заморачиваются, а либо нанимают людей с другим складом ума (они встречаются реже, но встречаются), либо разделяя обязанности (тут нужно два-три человека на задачу, которую ранее выполнял один, но зато это работает).
Есть еще много других схем генератора, например суммаризатор, который берет несколько текстов на одну тему и из них делает один. Есть генераторы на базе грамматик, которые порождают большую вариативность, чем просто шаблонизаторы. И много разных других подходов.
И про нейронные сети вы не совсем правы.
Яндекс рефераты производит чушь, где даже в одном предложении смысла нет:
«Лидерство в продажах, не меняя концепции, изложенной выше, экономит стиль менеджмента, повышая конкуренцию» — это бред.
Но очень большие модели порождают предложения в которых есть смысл:
«With even more new technologies coming onto the market quickly during the past three years, an increasing number of companies now must tackle the ever-changing environmental challenges online»
«We are aware of written instructions from the copyright holder not to, in any way, mention Rosenberg ’s negative comments if they are relevant as indicated in the documents, ” eBay said in a statement „
(примеры из Jozefowicz R. et al. Exploring the limits of language modeling //arXiv preprint arXiv:1602.02410. – 2016.)
Применительно к литературе. Вот такой фрагмент нейросеть средних размеров реально генерирует:
“ — Простите, он смог бы подождать. Но в этом нет никакого смысла. Вы понимаете?, — спросил он.
— Да, сэр. Я только не могу понять, что он не может причинить вред человеку.»
Тут есть осмысленный фрагмент диалога, где понятно, что первый человек спрашивает, а второй отвечает, при этом второй, кто отвечает, отвечает в тему (видна схема: «вы понимаете? Да, но не совсем..»). Если взять только такие фрагменты, то по ним очень трудно сказать, имеем ли мы текст нейросети, либо фрагмент, написанный человеком.
Известно много попыток, особенно у начинающих поэтов, подражать великим, однако профессиональных критиков редко удается обмануть, и они обычно оценивают такое подражательство крайне низко
Ну это из серии, когда профессиональным дегустаторам налили три рюмки одинакового вина и предложили сравнить. Все поголовно нашли существенную разницу. Тоже самое верно для профессиональных литературных критиков. Зная, что стихи начинающего автора, легко поставить ему в вину подражание Пушкину.
Да. В соц.сетях, нпр., можно найти много лаконичных оценок: мне нравится/не нравится поэт Н. А для солидной литературоведческой статьи такая оценка будет явно недостаточной
Тоже самое. Литературоведческая статья это попытка рационализировать субъективное ощущение, не несущая объективной ценности.
Нпр., бортовая система самолета или космического корабля — сложная. Несколько разбившихся самолетов или сгоревших кораблей — это нормально?
Число разбившихся самолетов и космических кораблей очень велико. Особенно опытных моделей. Дроны с автопилотом которые разбились во время разработки вообще никто не считает. Ни одна сложная система не работает с первого раза. Робот о котором идет речь не серийный, это пилотный проект.
Она не позиционирована, как популярная
Значит я неверно вас понял вначале. В любом случае, описания системы ПОЭТ у меня нет.
Сейчас наметилась тенденция использовать чат-ботов в поисковиках
Я только хочу сказать, что если принять такой чисто коммерческий подход, то бот-имитатор вроде усложненной Элизы может оказаться коммерчески очень успешным.
Если вы знаете, куда сейчас можно приделать Элизу и получить за это деньги, поделитесь секретом. Простые вещи все сделаны уже. А сложные — на каждую мелкую тему делать отдельную Элизу, это как раз 50 человеко-лет и уйдет. А у меня их нет, мне нужно, чтобы одна система делала все.
Такая проблема есть, конечно. В медицине это особенно существенно. Но существуют и интерпретируемые нейросетевые модели, и эта область развивается. Фактически, у банка может быть не нейросеть, а более простая модель, причины поведения которой можно понять. Но тот человек, который сидит на суппорте возможностями для этого не обладает.
С другой стороны, есть обычные программы, которые стали настолько сложными, что никто точно не знает, как и почему они работают. Да и люди не всегда могут объяснить свое решение. "Нутром чую" - популярное объяснение. Или встречается ситуация когда человек поступает неразумно, но для других притягивает какое-то логическое объяснение, которое не имеет отношение к реальной причине. То что вы описываете, это не столько проблема технологий, сколько того, что тем кто их использует в принципе наплевать на то, что кому-то "не повезло". Ну и опять в этом есть еще один аспект, мы все хотим и привыкли, что платежи и переводы проходят за минуту, а то и за секунду, а не за пять дней. Чтобы так работало, контроль операций просто должен быть автоматическим и достаточно надежным. Уберем все нейросети и "черные ящики", получим ситуацию, когда перевод идет неделю, как было раньше.
За 6 лет работы компании в чистом виде классификация предложений попадалась может быть 2-3 раза на примерно 600 проектов. На практике редко кому нужны классические задачи обработки языка. Людям нужно "сделать чат-бот, чтобы все понимал и отвечал на вопросы на основании текста сайта" или "достать из PDF файла с договором важные условия, определив в чем их суть", "разделить транскрипт видео на подразделы и написать к ним заголовки", "найти противоречия в инструкциях", "достать из описания товара параметры и на их основании написать новое описание" - т.е. продукт который решает их реальную задачу, в которой много исключений и мало данных.
Рисунок 1 Колонии E.Coli на чашках Петри — это подпись, а
Рисунок 1 показывает нам изображение колоний E.Coli — это упоминание рисунка в тексте.
обучающих примеров 10 штук. Какая будет точность у FastText?
Задача номер два. Нужно из команд вида:
Создать новый объект, называемый большой треугольник и поместить его в начало координат, увеличив размер в 3 раза — достать имя объекта, куда надо поместить, сколько сделать размер. Написать человек может что угодно и как угодно. Примеров для обучения 5-6 штук. С таким числом примеров эти задачи ничего не берет кроме ручного придумывания правил, что долго и плохо. А GPT-2XL их неплохо решает.
В копирайтинге нейросети используются уже какое-то время, есть специальные сервисы вроде copy.ai, conversion.ai, aiwriter.ru, но смысл их не в том, чтобы делать работу за копирайтера, они предлагают варианты из которых человек выбирает нужный и соединяет все вместе. Таким образом, отвечает за инстинность контента все равно человек.
Возможно, если получится довести до ума, дообучить на большом объеме и поправить узкие места в коде, напишем статью с детальным описанием подхода и выложим какой-то вариант для всех.
Фактически, судя по всему размер имеет большее значение чем архитектура Transformer, можно сделать аналогичную модель на сверточных сетях и получить аналогичный результат. Ценность большого размера именно в low-shot learning, когда данных ну просто нет, или их дорого получать (например, диалоговые системы) или сложно размечать (научные тексты). В этом плане нас GPT2-XL реально несколько раз спасал, когда был сложный заказ. Кое-где это действительно волшебство, но волшебство довольно неустойчивое и требующее навыка в обращении с ним.
С другой стороны ресурсозатраность кажется непропорционально большой. Мы в 2015 делали генератор обобщения отзывов (по задаче похожий на то, что Яндекс сейчас делает в Маркете), и генератор заголовков объявлений для контекстной рекламы. И в итоге там было 50 нейронов в скрытом слое и 250000 параметров, и он генерировал таки отзывы и заголовки, чуть похуже качеством, но всегда по заданной теме (можно почитать тут habr.com/ru/company/meanotek/blog/259355 и тут www.dialog-21.ru/digests/dialog2015/materials/pdf/TarasovDS2.pdf. Так что часто можно в архитектуру вложить некоторые свойства, которые решают конкретную задачу и требуют в 100 раз меньше ресурсов. Но это долго и возни много. А большую модель подключил и можно радоваться, думать не надо.
PS Полеты на Луну были бы дешевле, если бы удалось построить «башню» (космический лифт) на орбиту, но это похоже технически невозможно или крайне проблемно сделать.
Любая обучающаяся система будет работать плохо, если ей дать неправильные данные для обучения, мозг человека не исключение. Это не отменяет ценности таких систем для практики в решении практических задач.
PS. Пример с 2+2=5 немножко уже стал банальным. Если уж на то пошло, что 2+2=4 это не всегда непреложная истина. Например, в эксперименте с рассеянием электронов на щелях, можно взять два электрона и на вход и в результате «сложения» получить на выходе 4 или 0 в зависимости от места расположения детектора.
Это первые два примера из 10 которые я сделал для статьи. Подумал, что все 10 это уж очень много текста. Вообще они средние, есть получше, но есть и хуже ситуации. YaML, например, знает, что теорию гравитации создал Ньютон, а моя модель пишет упорно, что Кант. Скорее всего связано с тем, что Яндекса все-таки был терабайт текста и обучалась она дольше.
Я исхожу из этого, что свойства не подходит по критерии какого-то либо заболевания. Потому что в противном случае ему надо идти к грамотному врачу для назначения лечения. То есть это медицинская проблема и место ей на медицинском форуме, а не тут.
Если же мы всё-таки исходим из того, что это вариант нормы, которому в силу определенных особенностей сложно учить программирование, то в этом случае он подпадает под «healthy adult». Так как healthy adult это не значит, что нет выявленного клинического расстройства, только и всего. При этом условный IQ может быть 85 или 120 и это все будет норма с точки зрения исследования.
См.
Harrison, Tyler L., et al. «Working memory training may increase working memory capacity but not fluid intelligence.» Psychological science 24.12 (2013): 2409-2419.
Soveri, Anna, et al. «Working memory training revisited: A multi-level meta-analysis of n-back training studies.» Psychonomic bulletin & review 24.4 (2017): 1077-1096.
Thompson, Todd W., et al. «Failure of working memory training to enhance cognition or intelligence.» PloS one 8.5 (2013): e63614.
Но сама проблема описанная похоже имеет место быть. Случилось так, что я некоторое время пытался предметно ее изучать и решать. Для удобства изложения я оставлю термин «снежинка» в кавычках для обозначения описанного в статья явления, оговорившись, что речь не идет о каком-то стремлении унизить — никто не виноват, что он рос в среде, создающей определенные проблемы.
Что известно объективно относительно влияния среды:
Есть научные данные, что соцсети провоцируют симптомы синдрома дефицита внимания (см. хотя бы jamanetwork.com/journals/jama/article-abstract/2687861), а также депрессии. Есть результаты, что доступность данных через интернет негативно влияет на способность вспомнить прочитанное ( onlinelibrary.wiley.com/doi/abs/10.1111/ejn.13039 ) ну и еще много подобных отдельных вещей, которые видимо складываясь вместе дают описанные в статье проблемы. Про клиповое мышление и 15 минут это упрощение сильное.
Что я субъективно увидел, пытаясь научить условных «снежинок» программированию:
1. Есть проблемы с просмотром «в глубину», не связанные со временем непосредственно — сложно проанализировать неочевидные последствия какого-либо действия
2. Проблемы при работе с абстрактными концепциями, но не просто проблемы, а непонимание и активное неприятие того, что абстрактные концепции вообще нужны
3. Неприятие любых инструментов, использование которых кажется неудобным или непонятным сразу
4. Снижение способности переносить дискомфорт при решении задач которые сразу не решаются (что наверное ближе к оригинальному значению термина)
Есть еще несколько моментов, но это в комментарий уже не помещается.
Простыми способами (типа просто решить, быть внимательным) это не решается. Нельзя просто дать книгу по проектированию (т.к. нет понимания что есть абстракция и то что это нужно вообще и понимания того, что нужно чтобы понять смысл абстракции). Нельзя дать просто упражнения на внимание. Плохо помогает давать какие-то костыли типа шаблонов.
Начав с перебора таких простых моментов, как-то постепенно это выросло в учебную программу, в которой мы пытались бороться со всем этим комплексно, с теорией и упражнениями по каждому выявляемому проблемному пункту и вроде бы какие-то результаты это начало давать.
Но количественно результаты оценить сложно, так к сожалению в маленькой компании ресурсов на такие опыты не очень много, и авторитета не хватает (обучающиеся подозрительно относятся к тому, что их учат «как-то не так», как они привыкли). В итоге за неимением ресурсов пока приостановили это занятие, размышляем нужное ли это дело вообще.
На практике, как я думаю, этим не заморачиваются, а либо нанимают людей с другим складом ума (они встречаются реже, но встречаются), либо разделяя обязанности (тут нужно два-три человека на задачу, которую ранее выполнял один, но зато это работает).
И про нейронные сети вы не совсем правы.
Яндекс рефераты производит чушь, где даже в одном предложении смысла нет:
«Лидерство в продажах, не меняя концепции, изложенной выше, экономит стиль менеджмента, повышая конкуренцию» — это бред.
Но очень большие модели порождают предложения в которых есть смысл:
«With even more new technologies coming onto the market quickly during the past three years, an increasing number of companies now must tackle the ever-changing environmental challenges online»
«We are aware of written instructions from the copyright holder not to, in any way, mention Rosenberg ’s negative comments if they are relevant as indicated in the documents, ” eBay said in a statement „
(примеры из Jozefowicz R. et al. Exploring the limits of language modeling //arXiv preprint arXiv:1602.02410. – 2016.)
Применительно к литературе. Вот такой фрагмент нейросеть средних размеров реально генерирует:
“ — Простите, он смог бы подождать. Но в этом нет никакого смысла. Вы понимаете?, — спросил он.
— Да, сэр. Я только не могу понять, что он не может причинить вред человеку.»
Тут есть осмысленный фрагмент диалога, где понятно, что первый человек спрашивает, а второй отвечает, при этом второй, кто отвечает, отвечает в тему (видна схема: «вы понимаете? Да, но не совсем..»). Если взять только такие фрагменты, то по ним очень трудно сказать, имеем ли мы текст нейросети, либо фрагмент, написанный человеком.
Далее, существуют генератории историй на базе картинок (например, github.com/ryankiros/neural-storyteller, pdfs.semanticscholar.org/0f46/776b6a75c4088e4d5412b7bfdb29f7f777ef.pdf) которые не ограничены «библиотекой, натренированной на текстах». И качество текста тоже довольно высокое (см. пример по ссылке).
Ну это из серии, когда профессиональным дегустаторам налили три рюмки одинакового вина и предложили сравнить. Все поголовно нашли существенную разницу. Тоже самое верно для профессиональных литературных критиков. Зная, что стихи начинающего автора, легко поставить ему в вину подражание Пушкину.
Тоже самое. Литературоведческая статья это попытка рационализировать субъективное ощущение, не несущая объективной ценности.
Число разбившихся самолетов и космических кораблей очень велико. Особенно опытных моделей. Дроны с автопилотом которые разбились во время разработки вообще никто не считает. Ни одна сложная система не работает с первого раза. Робот о котором идет речь не серийный, это пилотный проект.
Значит я неверно вас понял вначале. В любом случае, описания системы ПОЭТ у меня нет.
Как можно использовать Элизу в поисковике?
Если вы знаете, куда сейчас можно приделать Элизу и получить за это деньги, поделитесь секретом. Простые вещи все сделаны уже. А сложные — на каждую мелкую тему делать отдельную Элизу, это как раз 50 человеко-лет и уйдет. А у меня их нет, мне нужно, чтобы одна система делала все.