Разработчики из OpenAI собираются обучить ИИ при помощи Reddit
CEO Nvidia Джен-Сан Хуанг показывает DGX-1 Илону Маску, сооснователю OpenAI
Открытая некоммерческая организация OpenAI, которая занимается исследованиями в области искусственного интеллекта, получила от компании Nvidia суперкомпьютер DGX-1. Сейчас специалисты из OpenAI работают над «слабой» формой ИИ. Ученые разрабатывают системы, способные обрабатывать огромное число первичных данных, выдавая структурированный массив информации. Для этого необходимы мощные компьютеры, а DGX-1 — очень мощный вычислительный комплекс. Nvidia заявляет, что в основе DGX-1 лежит новое поколение графических процессоров, которые обеспечивают скорость обработки данных, сравнимую с 250 серверами x86 архитектуры.
Создателями OpenAI являются Илон Маск и Сэм Альтман. Основные задачи организации — привлечение ученых, работающих в сфере ИИ, для совместной работы. Результаты исследований планируется сделать открытыми и доступными для всех желающих. По мнению основателей, все это поможет предупредить появление «злого» искусственного интеллекта. О такой угрозе много раз заявлял Маск.
Позиционируется DGX-1 как первый в мире суперкомпьютер для глубокого обучения, обладающий достаточной вычислительной мощью для развития ИИ. При помощи этого суперкомпьютера исследователи из OpenAI смогут обучать слабую форму ИИ гораздо быстрее, чем в случае работы с обычными серверами. На первом этапе ИИ обучат понимать текстовое общение людей. Кладезем разума в этом случае будет служить Reddit. Сообщения ресурса будут «скармливать» ИИ, а тот будет учиться понимать связь между отдельными словами, их группами и предложениями. Задача усложнена тем, что текст с Reddita насыщен жаргонизмами, сокращениями, это не академические тексты.
Андрей Карпаты (Andrej Karpathy), исследователь из OpenAI, говорит, что самообучающийся ИИ будет становиться все умнее с течением времени. «Глубокое обучение — особый класс моделей, поскольку чем больше сама модель, тем она лучше работает», — говорит он.
Язык остается важной проблемой для разработчиков искусственного интеллекта. И хотя многие проблемы решены, еще больше предстоит решить. Не так давно в Google провели эксперимент, когда самообучающуюся систему тренировали при помощи диалогов из фильмов. Спустя некоторое время оказалось, что ИИ дает вполне сносные ответы на относительно сложные вопросы. Иногда попытка сблизить слабую форму ИИ и людей дает неожиданные результаты. В марте этого года корпорация Microsoft запустила в Twitter бота-подростка Tay, и тот всего за сутки обучился плохому. После этого работники Microsoft сочли за лучшее удалить практически все сообщения Tay и отправили его «спать».
Ученые из OpenAI хотят понять, может ли робот выучить язык, взаимодействуя с людьми в реальном мире. Эксперимент с Reddit — первый этап в намеченной серии экспериментов. Благодаря DGX-1 обучение будет проходить гораздо быстрее, чем планировалось. ИИ можно будет обучать на примере больших, чем планировалось, массивов данных. Кроме текста, ИИ будут обучать методом проб и ошибок для выполнения ряда действий. Такой метод можно использовать для обучения искусственного интеллекта игре в видеоигры. Возможно, он сможет понять, что накопление игровых монеток в ряде игр позволяет повышать количество заработанных очков и улучшает способности персонажа.
Зачем все это нужно? В практическом плане слабую форму ИИ можно использовать во многих сферах. Например, создать робота, который способен выполнять работу по дому. И такой робот будет работать с течением времени все лучше и лучше, поскольку он способен учиться. Слабая форма ИИ нужна и для улучшения работы автономных автомобилей, разрабатываемых сейчас рядом компаний, включая Google. Что касается сильной формы ИИ, то здесь стоит опасаться, чтобы он не начал использовать в своих целях людей, о чем неоднократно упоминал Маск.
Ряд исследователей подвергает сомнению выполнимость задачи OpenAI по созданию «хорошего» искусственного сверхинтеллекта. По словам представителей самой организации, угроза создания злонамеренного ИИ нивелируется тем, что технологии, результаты разработок доступны всем. В то же время Ник Бостром, ученый из Оксфорда, считает, что именно открытость может привести к негативным результатам. То, что результатами исследований все делятся со всеми, говорит Бостром, и может стать проблемой. «Если у вас появилась кнопка „сделать всем плохо“, вряд ли вы захотите поделиться ей со всеми», — заявляет Бостром. Но в случае OpenAI эта кнопка будет доступна всем и каждому. В случае, если организация будет скрывать результаты своей работы, которые она считает опасными, то существование OpenAI потеряет свой смысл, поскольку организация уже не будет открытой.
Тем не менее, считает Бостром, положительные результаты работы тоже должны быть. Главный результат — это снижение вероятности контроля сверхинтеллекта какой-либо компанией в случае создания сильной формы ИИ. Монополизация сильной формы ИИ — это плохо, а OpenAI, скорее всего, позволяет уменьшить вероятность такого развития событий.