Search
Write a publication
Pull to refresh

Я считаю, что ИИ не заменит человека до тех пор, пока не научится получать реальный опыт, как минимум. Записанной человеком информации очень много, но всего записанного далеко не достаточно для того, чтобы стать экспертом. Это показывает и практика: сколько бы информации ни скармливали ИИ, он не становится в каждой конкретной области умнее соответствующих специалистов-людей.

Причина в том, что большую часть экспертных знаний человек получает из опыта, причем из разного рода опыта: личной практики, просто жизни в определенных условиях, общения с другими экспертами или коллегами, ученичества у других экспертов, целенаправленного развития в определенном направлении и многого другого. И для людей требуется много лет такого опыта. Представь, сколько разного рода информации человек может получить за много лет. И все это не запишешь в виде текста, не нарисуешь в виде схем.

Вся эта тонкая настройка сейчас недоступна ни одному ИИ, в таком объеме, в каком это нужно человеку, чтобы стать экспертом. ИИ пока знают в основном только тексты или проходят какое-то сильно ограниченное обучение от людей. За некоторыми исключениями, где ИИ заменял какую-то одну очень небольшую часть работы человека. И там как раз вся потребляемая ИИ информация соответствовала той, которую получает человек, чтобы стать экспертом.

Еще интересно рассмотреть явление, которое можно описать как "закон неуменьшения энтропии" в информации. Если обученный ИИ начнет генерировать сам для себя новую информацию для обучения себя самого, то количество ошибок в этой новой информации будет только расти. И даже логика не поможет ИИ навести порядок в этой информации, так как, во-первых, если предпосылки неверны, то неверны будут и выводы, и попытка применить логику к своей информации будет приводить к каскадному распространению ошибок. А если ИИ будет пытаться выстроить что-то непротиворечивое, то по этой же причине он сможет прийти только к какому-то своему виртуальному миру, где все непротиворечиво, но не имеет отношения к реальности. И даже это он не сможет сделать, так как проверять логику придется самому ИИ, а он и в логике может ошибаться.

Поэтому дальше обучать ИИ с помощью текстов уже нельзя, так как качественные тексты, написанные людьми, заканчиваются, а новые появляются слишком медленно. А как показала практика, для линейного роста интеллекта ИИ объем данных для обучения должен расти экспоненциально. Где же взять столько данных, кроме как из реального мира или хотя бы из виртуального, где работает логика? Под виртуальным миром я имею в виду программирование и математику.

А значит, одной из первых предпосылок к тому, что ИИ в скором будущем может заменять людей, будет его интенсивное самообучение, когда он сам будет взаимодействовать с миром, получать опыт и учиться.

А еще из этого следует, что если ИИ и станет экспертом хоть в чем-нибудь, то в первую очередь это будет программирование и математика, просто потому что получать опыт из виртуального мира намного проще и быстрее. А если ИИ сможет учиться на своем опыте, то может быть он сможет и освоить процесс инженерии. Это, конечно, не значит автоматически, что программисты останутся без работы. Что угодно может произойти после этого, здесь как мне кажется не на что даже опереться, чтобы делать прогнозы.

Странно, что я не вижу в интернете подобных рассуждений.
Вроде очевидные вещи, что для программирования нужен процесс инженерии, требующий реальной работы, а чтобы стать экспертом нужно получать опыт, что никакой скрытой магии во всей записанной человеком информации нет, т.е. из нее не получить больше чем в ней уже содержится. (Манипулирование имеющейся информацией может дать новую информацию, только если она будет проверена на ошибки и на соответствие реальности)

Может я где-то ошибаюсь? Или может я не туда смотрю?

Tags:
Total votes 3: ↑3 and ↓0+3
Comments5

Articles