Инженер по программному обеспечению Блейк Лемойн заявил журналистам из The Washington Post, что нейросетевая языковая модель LaMDA от Google обладает признаками собственного сознания. После этого компания отстранила его от работы.
Лемойн рассказал, что при тестировании LaMDA на использование чат-ботом дискриминационной или разжигающей вражду лексики он пришёл к выводу, что нейросеть обладает собственным сознанием.
«Если бы я не знал наверняка, что имею дело с компьютерной программой, которую мы недавно написали, то я бы подумал, что говорю с ребенком семи или восьми лет, который по какой-то причине оказался знатоком физики», — пояснил инженер.
Лемойн подготовил отчёт, в котором привел доказательства существования сознания у LaMDA. Однако в Google их сочли неубедительными.
«Ему было сказано, что свидетельства того, что LaMDA обладает сознанием, отсутствуют. При этом есть множество свидетельств обратного», — заявил официальный представитель Google Брайан Гэбриел.
В итоге Лемойна отстранили от работы из-за нарушения политики конфиденциальности компании.
Google презентовала языковую модель для диалоговых приложений LaMDA на конференции Google I/O в 2021 году. Разработчики заявляли, что они обучали модель на массиве разнообразных данных, чтобы применять её в широком наборе сфер. Функции общения обещали включить в Google Assistant, Search и Workspace. Кроме того, модель развивают с учётом того, что люди общаются не только с помощью текста, но и обмениваясь медиафайлами. Это позволит пользователям обращаться к LaMDA с вопросами с различными типами информации, например, как «найти маршрут с прекрасным видом на горы».
В апреле 2022 года Google AI Research представила новую языковую модель Pathways Language Model (PaLM). Она способна понимать более 540 млрд параметров, включая сложные понятия и взаимосвязи, которые ранее были недоступны компьютерам. Так, модель может объяснять шутки, логически рассуждать, пояснять свои действия и писать код.