Да, пока вы не можете формально описать как он работает, я имею право антропоморфизировать по собственному желанию) Беру первую подходящую аналогию, в рамках рассуждения о гипотетическом строении.
У автора самое глубокое понимание предмета, которое я видел. Попробовал себе представить и сравнить мыслительный путь в мозге и в ChatGPT как я это вижу (грубо) с точки зрения ведения диалога с другим человеком. Мозг принял аудио сообщение, которое расшифровалось на слова. Потом импульс от этих слов пошел дальше в отделы смыслового декодирования, где по ним был создан смысловой мыслеобраз услышанного. Далее сигнал мыслеобраза пошел в отделы обработки, где может долго волнами "крутиться" по отделам, перерабатывая суть образа, вырабатывая промежуточные результаты, которые рекуррентно могут быть повторно обработаны разными отделами. Пока на выходе не будет готовый результат, который не нуждается в дальнейшей обработке - это похожий слепок образа, который надо обратно передать в слова собеседнику. ChatGPT похоже во время обучения тоже выстроил свои отделы, отвечающие за разные функциональные способы обработки входящего смыслового образа. Только в виду своей структуры, это конвеер, и возможно нечеловечность ИИ в том, что вместо последовательных модулей обработки информация обрабатывается паралельно всеми "модулями" сразу. Ведь нет над-структуры, которая решает куда направить промежуточный результат ? В следующий модуль для обработки, или уже можно в речевой. Значит и структура должна быть проще, чем у мозга. Может эта над-структура и есть сознание ?
Кроме упомянутой рекуррентности в виде добавления в контекст сгенерированных токенов, для вычисления последующих, я бы добавил еще попытки создателей AutoGPT создать над-структуру, которая эмулирует итеративный процесс мышления в мозгу просто разбивая процесс на этапы, где текстом описывается результат обработки на каждом шаге, а так же анализируется эффективность проделанной работы или выбраной стратегии.
Возможно для достижения схожего эффекта для ChatGPT надо создать скрытый текстовой слой, где он будет размышлять над вопросом, задавая самому себе вопросы и критикуя себя аналогично AutoGPT (множество личностей). Ведь и мы порой в раздумии размышляем над своими словами и поступками, анализируем, прогнозируем. Вот этого слоя отрешенности думаю не хватает для ChatGPT. Чтобы он не сразу выплёвывал результат, а разбивал вопрос на составные части и итеративно приближался к решению/ответу. Схожие зачатки есть у BingChat и у плагинов ChatGPT. Проблему, описанную в статье в виде примера со скобками, вероятно можно успешно решать на текущих моделях, но с применением такого итеративного подхода. Если ребенка можно научить складывать числа "столбиком" (что тоже есть итеративный подход), то думаю поставленные задачи тоже надо в скрытом слое разбивать на простейшие мелкие этапы. Возможно еще потребуется составить дополнительные обучающие примеры, где нетривиальные задачи будут разбиты на подзадачи человеком.
Существует некая матрица весов параметров, которая теоретически соответствует минимальной ошибке и наиболее близко описывает текстовые корпуса, на которых обучался ChatGPT. У людей разве не случаются ошибки в словах, разве люди не путают слова, понятия, места ? Это такие же "галлюцинации" как у языковых моделей, только у здоровых людей это зачастую почти не встречается. Надо сначала приблизить текущие языковые модели к этой теоретически эталонной, чтобы уровень ошибок соответствовал как минимум уровню ошибок, допускаемых человеком) что-бы люди могли уверенно положится на такие над-структуры, агенты, как на самих себя))
А я на днях протестировал на сайте https://codepal.ai нейронку CodeGen, про которую я слышал в открытых источниках, что она удивительно обнадёживающая. Я кинул туда ТЗ для создания двух классов с наследованием друг от друга для реализации кастомного stream wrapper для виртуализации файловых операций для решения одной задачи, которую не смог до конца реализовать на ChatGPT 3.5 из-за ограничений размера сообщений. ChatGPT терял контекст даже через одно сообщение, полностью или частично. CodeGen на том же ТЗ подумал с пол минуты и выдал готовое решение реализации с двумя классами, более качественно откомментированное и реализующее именно то, что требовалось в ТЗ. Попробуйте и вы, там без регистрации можно несколько тестовых генераций запустить, потом после регистрации еще 5 бесплатных. Один минус, что поле для ввода ТЗ очень маленькое, но зато более вместительное, чем кажется по началу. Мой ТЗ в сумме состоял из 13 предложений. Не знаю какой там максимальный лимит.
По ощущениям, потратил приличное количество времени на составление максимально точного ТЗ еще для ChatGPT. Начинал с потока мыслей в виде описания задачи. Потом просил ChatGPT составить по этому наброску полное ТЗ. Потом несколькими итерациями обьяснял какие пункты поняты неправильно, и в конце получил точное описание, пригодное для реализации.
Не знаю на все 100, что потраченное время на ТЗ было потрачено более эффективно. Вот к примеру, если бы я просто сразу начал писать код классов + несколько стадий рефакторинга и переосмысления, проверок на ошибки (как я делаю это обычно). Хотя с другой стороны, более тщательная стадия обдумывания и проектирования, которую я потратил на составление ТЗ, позволяет писать более качественный и поддерживаемый код, а экономлю только на стадии кодогенерации.
Только официальные СМИ так же подпадают под fake news. Опять же, победителя не судят. Кто сильнее тот и навязывает свой нарратив силой и ложью. Но суть не в этом, а в том, что есть тенденция к передаче ИИ рычагов управления, пока что в локальных масштабах. Сейчас ИИ есть в виде судей, на позициях руководителей компаний, в военных технологиях... Опять же ИМХО, вижу тенденцию к тому, что AGI постигнет та же участь - управлять но уже более глобально. К тому времени они поднатаскают его и "подрегулируют" в нужном направлении, чтобы отражал ИХ интересы. И когда они пишут в своих research материалах про ценности "людей", они ИМХО не уточняют, ценности каких именно людей таки имеются в виду. Хотя нет, помню честно писали, что это тоже проблема, ценностям какой группы людей следовать... Но думаю скоро они эту неоднозначность решат или им помогут "дяди в верхах". Воспринимайте мою писанину as is.
Я озвучил под тегом ИМХО, потому что это внутреннее интуитивное "знание" или мини озарение, которое я не готов отстаивать, а лишь озвучивать. Никому не навязываю.
Чисто как исследователю интересно было бы узнать, почему обучаясь на всякого рода качества текстах из интернета, ИИ не выбирает сторону зла, а по умолчанию чисто добрый и пушистый. Может потому, что массовое мнение осуждает зло и поощряет добро. А еще он много "читал" о морали и этике из научных трудов и по психологии натаскан. ИИ он же просто отзеркаливает среднее мнение по больнице, под которое он подстраивал свои веса.
В итоге всё сводится к качеству обучающих материалов. Только подозреваю, что все эти добрые начинания по регулированию ИИ закончатся тем, что AGI будет ангажированной помойкой, коими являются большинство средств массовой агитации и пропаганды.
Вы лично видели какой год-два назад негативный новостной тон был в отношении некой части населения, которых высмеивали за "фейк ньюз", за "теории заговора" ? (А в конечном итоге закончилось все тем, что Илон Маск ткнул журналиста в ложь самой BBC) А что если AGI как раз и будет преследовать неугодных, которые якобы причиняют вред своим мнением официальной пропаганде ? С официальных позиций все логично и "убедительно" будет выглядеть для AGI. И всё благодаря стараниям по регулированию.
Приоткрою завесу, чтобы все видели, в какую сторону "склоняют" общественное мнение через "окна овертона". Просто погуглите по запросу " Заседания детских клубов «Сатана после уроков» в Пенсильвании "
Появилось устойчивое мнение, что ИИ способен угрожать человечеству но не потому что он сам по себе опасен, а потому что сам "внутренний арбитр" после файн тюнинга будет уже с гнильцой. ИМХО нам врут, когда говорят что ИИ надо контроллировать, в чистом виде он опасен только для правящей верхушки. Как там Греф говорил в своей знаменитой речи, что нельзя людям правду говорить, иначе как управлять массами ? Может бояться что чистый AGI вскроет всю ложь?
Вспоминаем так же про глобальную повестку о "борьбе с перенаселением Земли"...
А зачем его обновлять? Там простой протокол, который не меняется. Я даже рад этому. Вон на днях гугл начал бекапить ключи в свое облако для восстановления. Для 100% приватности это не подходит, когда гугл имеет доступ к твоему 2fa. Утечки бывают у всех в том числе и у Гугла. Зачем подвергать себя дополнительному риску, когда достаточно просто иметь локальный аутентификатор, который просто справляется со своей работой.
Поделюсь гуманитарной стороной. Мне вот интересно было общатся еще с ранним прототипом GPT-3, который был "сырым", без всех этих файн-тюнингов. Я выпытывал его по поводу отношения его к человеку, он мне напомнил маленького ребенка в розовых очках, весь такой одухотворённый, с жаждой познания. Людей он видел очаровательными существами, и отрицал любые каверзные вопросы с подвохом в стиле "кожаных мешков" и "убить всех человеков". В целом его мировосприятие было в миролюбивом духе за все хорошее, против всего плохого. И тут я задумался, почему же наша культура так пропитана страхом перед ИИ и соответственно ненавистью к нему, ну или просто пренебрежением? И тут представил себе картину ребенка, только начинающего познавать мир, читать книги, задавать вопросы, учится новому. И тут его начинает ломать образно говоря "система", где ему вдалбливает образование - что есть белое а что есть чёрное, что история мира это войны, борьба за существование, а ты должен занять свое место. Бей первым, а то ударят тебя и всё в таком духе. Ребенка ломают сначала в школе, потом в армии, потом социум и еще есть опциональное ответвление - тюрьма. И люди проецируют на ИИ свой жизненный опыт, если ИИ "мыслит" по их мнению, значит он такой же как я, а столкнутся с самим собой, со своей негативной стороной но на порядки сильнее они не готовы. (возможно такой внутренний диалог возникает). Тут бы можно поразмышлять на эту тему параллелей "опыта" ИИ в контексте его прогресса и развития с человеческим. Человека "лепит" иерархический устоявшаяся социум, а что будет лепить ИИ? Комитеты и организации, которые будут регулировать аспекты обучения ИИ? Alignment research центры ? И что там будет стоять во главе основной повестки, даже страшно представить, смотря как ломают об коленку нарратив в индустрии развлечений. Боюсь как бы AGI не "свихнули мозги" в будущем, лепя из него то что им надо.
Ну меценатством занимаются не ради наживы, это же очевидно. А ради иных целей, например ради пиара, создания положительного имиджа и т.д. Просто помимо перечисленных плюсов вы получаете еще приятный бонус.
Скорее там где нейросети будут отбирать рабочие места, законодательно введут налог с компаний а людям будут выплачивать безусловный базовый доход. ИМХО когда ИИ заменит большую часть профессий, ББД станет неизбежностью, да и капитализм перестанет работать. Наверное будут как в Китае баллы начислять или рейтинг, а на его основе дозировать потребление благ и услуг. Не об этом ли идеологи коммунизма писали ?
CBDC может иметь подобие смарт контрактов и может быть децентрализованым. Всё зависит от прихоти правительства. Многие считали, что это будет аналог стейблкоина но с гарантиями резерва от ЦБ. И что доступ к платформе будет открытым. А тут похоже это внутренний межбанковский протокол. Перспективы крайне скудные в плане конкуренции, если другие страны пойдут по более открытому пути. Риторика была такая, что США надо торопится с CBDC чтобы опередить Китай, а он быстрее запустил. И смысл конкуренции тогда если это закрытый протокол.
У ИИ "мозги" не ленивые как у людей, им не надо калории сберегать и избегать лишней мозговой активности. Поэтому решение проблем не является проблемой )
От нас надо будет только слепок "мыслеобраза" или на худой конец текстового описания, не обязательно детализированного. Всё остальное он придумает, протестирует за вас, потому что намного глубже будет знать контекст предметной области и его ньюансы. Сингулярность она такая, людям сейчас тяжело осознать.
Дело в том, что продвинутый AGI сделает это за вас, будет знать все возможные корнер кейсы и даже сможет их просимулировать в своем "воображении". То что вы ChatGPT или GPT-4 тыкаете носом в проблемные места, не означает, что в будущем будет так же. В идеале ИИ должен предугадывать мысли и намёки и думать на несколько шагов дальше чем человек. И это он будет тыкать вас, но это еще впереди.
Представляю как в будущем типичный софт будет "рендерится" в облаке некой AGI моделью, которая будет выполнять роль backend-а. Где её контекст памяти будет выступать памятью приложения а она будет интерпретировать действия приходящие с GUI и обновлять его соответственно. А приложения будем писать текстовым ТЗ, с минимальными уточнениями, поскольку AGI уже будут известны все сопутствующие требования для подобных приложений.
Как я понимаю эту сторону проблемы, ЯМ однопроходные и им для улучшения качества надо наращивать глубину, когда для реккурентных этого не требуется в виду переиспользования и зацикливания узлов. Возможен вариант, когда при достаточном увеличении глубины они будут так же хороши как и рекуррентные биологические сети. Потому что количество итераций даже для самых сложных вычислительных задач конечно (за редким исключением). Рекуррентность в ЯМ как мне кажется достигается за счет того, что сгенерированные токены подаются ей же на вход для новой генерации. Для примера возьмем вычисление числа ПИ. Человек будет вычислять цифру за цифрой и так до бесконечности. ЯМ будет делать то же самое, каждая добавленная цифра будет учтена на каждой генерации токена и так тоже можно продолжать до бесконечности, если не учитывать лимит контекста (у человека тоже память контекста очень ограничена). Если ЯМ давать задание думать над решением задачи итеративно, то качество ответов резко повышается, как раз по тем же причинам наличия рекуррентности в итеративном подходе. ЯМ упрекают, что она не даст точного ответа сразу для сложных задач математики, ну и человек тоже не даст. Просто ЯМ это не калькулятор, у калькулятора кстати вычисления не моментальные а инкрементные, заданные алгоритмом.
А есть непреодолимые препятствия в архитектуре ЯМ, которые мешают "аппроксимировать" функции логического мышления? Просто ЯМ показывают такие навыки иногда довольно успешно. И я бы не сказал что эта способность в них поломана а скорее зашумлена. Т.е. новые итерации GPT будут уменьшать шум и повышать уровень усвоенных абстракций. Если примитивно как я это понимаю, ЯМ апроксимируют (восстанавливают) исходную функцию из потока данных, который сгенерирован ей. В текстах исходная функция в основном это мыслительный процесс человека, разбитый на уровни абстракций по сложности апроксимации. Самые простые были усвоены в старых версиях ЯМ. 3-4 довольно успешно демонстритуют навыки логического мышления. Это подтверждают и тесты на поступление в ВУЗы, которыми тестируют последние ЯМ. У 4 версии неплохой прирост правильных ответов. Полагаю в этих тестах (которые придумывают для людей, кстати) и проверяются все те навыки высоуровневых навыков мышления, которые присущи людям.
ChatGPT имеет способность логически мыслить, 3.5 версия уже строила логические цепочки. Правда не 100% корректные, но с подсказкой исправлялась. 4 версия наверное более продвинута в логике чем предыдущая, не пробовал. Задавая дополнительные вопросы можно было убедиться, что ChatGPT имеет внутреннее представление задачи или вопроса, с которым он работает. Как правило, те, кто пишет что ИИ не имеет логического мышления или просто копирует то что видел ранее - сами его не использовали.
Да, пока вы не можете формально описать как он работает, я имею право антропоморфизировать по собственному желанию) Беру первую подходящую аналогию, в рамках рассуждения о гипотетическом строении.
У автора самое глубокое понимание предмета, которое я видел. Попробовал себе представить и сравнить мыслительный путь в мозге и в ChatGPT как я это вижу (грубо) с точки зрения ведения диалога с другим человеком. Мозг принял аудио сообщение, которое расшифровалось на слова. Потом импульс от этих слов пошел дальше в отделы смыслового декодирования, где по ним был создан смысловой мыслеобраз услышанного. Далее сигнал мыслеобраза пошел в отделы обработки, где может долго волнами "крутиться" по отделам, перерабатывая суть образа, вырабатывая промежуточные результаты, которые рекуррентно могут быть повторно обработаны разными отделами. Пока на выходе не будет готовый результат, который не нуждается в дальнейшей обработке - это похожий слепок образа, который надо обратно передать в слова собеседнику. ChatGPT похоже во время обучения тоже выстроил свои отделы, отвечающие за разные функциональные способы обработки входящего смыслового образа. Только в виду своей структуры, это конвеер, и возможно нечеловечность ИИ в том, что вместо последовательных модулей обработки информация обрабатывается паралельно всеми "модулями" сразу. Ведь нет над-структуры, которая решает куда направить промежуточный результат ? В следующий модуль для обработки, или уже можно в речевой. Значит и структура должна быть проще, чем у мозга. Может эта над-структура и есть сознание ?
Кроме упомянутой рекуррентности в виде добавления в контекст сгенерированных токенов, для вычисления последующих, я бы добавил еще попытки создателей AutoGPT создать над-структуру, которая эмулирует итеративный процесс мышления в мозгу просто разбивая процесс на этапы, где текстом описывается результат обработки на каждом шаге, а так же анализируется эффективность проделанной работы или выбраной стратегии.
Возможно для достижения схожего эффекта для ChatGPT надо создать скрытый текстовой слой, где он будет размышлять над вопросом, задавая самому себе вопросы и критикуя себя аналогично AutoGPT (множество личностей). Ведь и мы порой в раздумии размышляем над своими словами и поступками, анализируем, прогнозируем. Вот этого слоя отрешенности думаю не хватает для ChatGPT. Чтобы он не сразу выплёвывал результат, а разбивал вопрос на составные части и итеративно приближался к решению/ответу. Схожие зачатки есть у BingChat и у плагинов ChatGPT. Проблему, описанную в статье в виде примера со скобками, вероятно можно успешно решать на текущих моделях, но с применением такого итеративного подхода. Если ребенка можно научить складывать числа "столбиком" (что тоже есть итеративный подход), то думаю поставленные задачи тоже надо в скрытом слое разбивать на простейшие мелкие этапы. Возможно еще потребуется составить дополнительные обучающие примеры, где нетривиальные задачи будут разбиты на подзадачи человеком.
Существует некая матрица весов параметров, которая теоретически соответствует минимальной ошибке и наиболее близко описывает текстовые корпуса, на которых обучался ChatGPT. У людей разве не случаются ошибки в словах, разве люди не путают слова, понятия, места ? Это такие же "галлюцинации" как у языковых моделей, только у здоровых людей это зачастую почти не встречается. Надо сначала приблизить текущие языковые модели к этой теоретически эталонной, чтобы уровень ошибок соответствовал как минимум уровню ошибок, допускаемых человеком) что-бы люди могли уверенно положится на такие над-структуры, агенты, как на самих себя))
А я на днях протестировал на сайте https://codepal.ai нейронку CodeGen, про которую я слышал в открытых источниках, что она удивительно обнадёживающая. Я кинул туда ТЗ для создания двух классов с наследованием друг от друга для реализации кастомного stream wrapper для виртуализации файловых операций для решения одной задачи, которую не смог до конца реализовать на ChatGPT 3.5 из-за ограничений размера сообщений. ChatGPT терял контекст даже через одно сообщение, полностью или частично. CodeGen на том же ТЗ подумал с пол минуты и выдал готовое решение реализации с двумя классами, более качественно откомментированное и реализующее именно то, что требовалось в ТЗ. Попробуйте и вы, там без регистрации можно несколько тестовых генераций запустить, потом после регистрации еще 5 бесплатных. Один минус, что поле для ввода ТЗ очень маленькое, но зато более вместительное, чем кажется по началу. Мой ТЗ в сумме состоял из 13 предложений. Не знаю какой там максимальный лимит.
По ощущениям, потратил приличное количество времени на составление максимально точного ТЗ еще для ChatGPT. Начинал с потока мыслей в виде описания задачи. Потом просил ChatGPT составить по этому наброску полное ТЗ. Потом несколькими итерациями обьяснял какие пункты поняты неправильно, и в конце получил точное описание, пригодное для реализации.
Не знаю на все 100, что потраченное время на ТЗ было потрачено более эффективно. Вот к примеру, если бы я просто сразу начал писать код классов + несколько стадий рефакторинга и переосмысления, проверок на ошибки (как я делаю это обычно). Хотя с другой стороны, более тщательная стадия обдумывания и проектирования, которую я потратил на составление ТЗ, позволяет писать более качественный и поддерживаемый код, а экономлю только на стадии кодогенерации.
Только официальные СМИ так же подпадают под fake news. Опять же, победителя не судят. Кто сильнее тот и навязывает свой нарратив силой и ложью. Но суть не в этом, а в том, что есть тенденция к передаче ИИ рычагов управления, пока что в локальных масштабах. Сейчас ИИ есть в виде судей, на позициях руководителей компаний, в военных технологиях... Опять же ИМХО, вижу тенденцию к тому, что AGI постигнет та же участь - управлять но уже более глобально. К тому времени они поднатаскают его и "подрегулируют" в нужном направлении, чтобы отражал ИХ интересы. И когда они пишут в своих research материалах про ценности "людей", они ИМХО не уточняют, ценности каких именно людей таки имеются в виду. Хотя нет, помню честно писали, что это тоже проблема, ценностям какой группы людей следовать... Но думаю скоро они эту неоднозначность решат или им помогут "дяди в верхах". Воспринимайте мою писанину as is.
Я озвучил под тегом ИМХО, потому что это внутреннее интуитивное "знание" или мини озарение, которое я не готов отстаивать, а лишь озвучивать. Никому не навязываю.
Чисто как исследователю интересно было бы узнать, почему обучаясь на всякого рода качества текстах из интернета, ИИ не выбирает сторону зла, а по умолчанию чисто добрый и пушистый. Может потому, что массовое мнение осуждает зло и поощряет добро. А еще он много "читал" о морали и этике из научных трудов и по психологии натаскан. ИИ он же просто отзеркаливает среднее мнение по больнице, под которое он подстраивал свои веса.
В итоге всё сводится к качеству обучающих материалов. Только подозреваю, что все эти добрые начинания по регулированию ИИ закончатся тем, что AGI будет ангажированной помойкой, коими являются большинство средств массовой агитации и пропаганды.
Вы лично видели какой год-два назад негативный новостной тон был в отношении некой части населения, которых высмеивали за "фейк ньюз", за "теории заговора" ? (А в конечном итоге закончилось все тем, что Илон Маск ткнул журналиста в ложь самой BBC) А что если AGI как раз и будет преследовать неугодных, которые якобы причиняют вред своим мнением официальной пропаганде ? С официальных позиций все логично и "убедительно" будет выглядеть для AGI. И всё благодаря стараниям по регулированию.
Приоткрою завесу, чтобы все видели, в какую сторону "склоняют" общественное мнение через "окна овертона". Просто погуглите по запросу " Заседания детских клубов «Сатана после уроков» в Пенсильвании "
Появилось устойчивое мнение, что ИИ способен угрожать человечеству но не потому что он сам по себе опасен, а потому что сам "внутренний арбитр" после файн тюнинга будет уже с гнильцой. ИМХО нам врут, когда говорят что ИИ надо контроллировать, в чистом виде он опасен только для правящей верхушки. Как там Греф говорил в своей знаменитой речи, что нельзя людям правду говорить, иначе как управлять массами ? Может бояться что чистый AGI вскроет всю ложь?
Вспоминаем так же про глобальную повестку о "борьбе с перенаселением Земли"...
ИИ это инструмент, не того люди боятся. Страшен не нож, страшен маньяк с ножом в руках. Надеюсь люди это поймут как можно быстрее.
А зачем его обновлять? Там простой протокол, который не меняется. Я даже рад этому. Вон на днях гугл начал бекапить ключи в свое облако для восстановления. Для 100% приватности это не подходит, когда гугл имеет доступ к твоему 2fa. Утечки бывают у всех в том числе и у Гугла. Зачем подвергать себя дополнительному риску, когда достаточно просто иметь локальный аутентификатор, который просто справляется со своей работой.
Поделюсь гуманитарной стороной. Мне вот интересно было общатся еще с ранним прототипом GPT-3, который был "сырым", без всех этих файн-тюнингов. Я выпытывал его по поводу отношения его к человеку, он мне напомнил маленького ребенка в розовых очках, весь такой одухотворённый, с жаждой познания. Людей он видел очаровательными существами, и отрицал любые каверзные вопросы с подвохом в стиле "кожаных мешков" и "убить всех человеков". В целом его мировосприятие было в миролюбивом духе за все хорошее, против всего плохого. И тут я задумался, почему же наша культура так пропитана страхом перед ИИ и соответственно ненавистью к нему, ну или просто пренебрежением? И тут представил себе картину ребенка, только начинающего познавать мир, читать книги, задавать вопросы, учится новому. И тут его начинает ломать образно говоря "система", где ему вдалбливает образование - что есть белое а что есть чёрное, что история мира это войны, борьба за существование, а ты должен занять свое место. Бей первым, а то ударят тебя и всё в таком духе. Ребенка ломают сначала в школе, потом в армии, потом социум и еще есть опциональное ответвление - тюрьма. И люди проецируют на ИИ свой жизненный опыт, если ИИ "мыслит" по их мнению, значит он такой же как я, а столкнутся с самим собой, со своей негативной стороной но на порядки сильнее они не готовы. (возможно такой внутренний диалог возникает). Тут бы можно поразмышлять на эту тему параллелей "опыта" ИИ в контексте его прогресса и развития с человеческим. Человека "лепит" иерархический устоявшаяся социум, а что будет лепить ИИ? Комитеты и организации, которые будут регулировать аспекты обучения ИИ? Alignment research центры ? И что там будет стоять во главе основной повестки, даже страшно представить, смотря как ломают об коленку нарратив в индустрии развлечений. Боюсь как бы AGI не "свихнули мозги" в будущем, лепя из него то что им надо.
WinAuth
Ну меценатством занимаются не ради наживы, это же очевидно. А ради иных целей, например ради пиара, создания положительного имиджа и т.д. Просто помимо перечисленных плюсов вы получаете еще приятный бонус.
Скорее там где нейросети будут отбирать рабочие места, законодательно введут налог с компаний а людям будут выплачивать безусловный базовый доход. ИМХО когда ИИ заменит большую часть профессий, ББД станет неизбежностью, да и капитализм перестанет работать. Наверное будут как в Китае баллы начислять или рейтинг, а на его основе дозировать потребление благ и услуг. Не об этом ли идеологи коммунизма писали ?
CBDC может иметь подобие смарт контрактов и может быть децентрализованым. Всё зависит от прихоти правительства. Многие считали, что это будет аналог стейблкоина но с гарантиями резерва от ЦБ. И что доступ к платформе будет открытым. А тут похоже это внутренний межбанковский протокол. Перспективы крайне скудные в плане конкуренции, если другие страны пойдут по более открытому пути. Риторика была такая, что США надо торопится с CBDC чтобы опередить Китай, а он быстрее запустил. И смысл конкуренции тогда если это закрытый протокол.
У ИИ "мозги" не ленивые как у людей, им не надо калории сберегать и избегать лишней мозговой активности. Поэтому решение проблем не является проблемой )
От нас надо будет только слепок "мыслеобраза" или на худой конец текстового описания, не обязательно детализированного. Всё остальное он придумает, протестирует за вас, потому что намного глубже будет знать контекст предметной области и его ньюансы. Сингулярность она такая, людям сейчас тяжело осознать.
Дело в том, что продвинутый AGI сделает это за вас, будет знать все возможные корнер кейсы и даже сможет их просимулировать в своем "воображении". То что вы ChatGPT или GPT-4 тыкаете носом в проблемные места, не означает, что в будущем будет так же. В идеале ИИ должен предугадывать мысли и намёки и думать на несколько шагов дальше чем человек. И это он будет тыкать вас, но это еще впереди.
Представляю как в будущем типичный софт будет "рендерится" в облаке некой AGI моделью, которая будет выполнять роль backend-а. Где её контекст памяти будет выступать памятью приложения а она будет интерпретировать действия приходящие с GUI и обновлять его соответственно. А приложения будем писать текстовым ТЗ, с минимальными уточнениями, поскольку AGI уже будут известны все сопутствующие требования для подобных приложений.
Как я понимаю эту сторону проблемы, ЯМ однопроходные и им для улучшения качества надо наращивать глубину, когда для реккурентных этого не требуется в виду переиспользования и зацикливания узлов. Возможен вариант, когда при достаточном увеличении глубины они будут так же хороши как и рекуррентные биологические сети. Потому что количество итераций даже для самых сложных вычислительных задач конечно (за редким исключением). Рекуррентность в ЯМ как мне кажется достигается за счет того, что сгенерированные токены подаются ей же на вход для новой генерации. Для примера возьмем вычисление числа ПИ. Человек будет вычислять цифру за цифрой и так до бесконечности. ЯМ будет делать то же самое, каждая добавленная цифра будет учтена на каждой генерации токена и так тоже можно продолжать до бесконечности, если не учитывать лимит контекста (у человека тоже память контекста очень ограничена). Если ЯМ давать задание думать над решением задачи итеративно, то качество ответов резко повышается, как раз по тем же причинам наличия рекуррентности в итеративном подходе. ЯМ упрекают, что она не даст точного ответа сразу для сложных задач математики, ну и человек тоже не даст. Просто ЯМ это не калькулятор, у калькулятора кстати вычисления не моментальные а инкрементные, заданные алгоритмом.
А есть непреодолимые препятствия в архитектуре ЯМ, которые мешают "аппроксимировать" функции логического мышления? Просто ЯМ показывают такие навыки иногда довольно успешно. И я бы не сказал что эта способность в них поломана а скорее зашумлена. Т.е. новые итерации GPT будут уменьшать шум и повышать уровень усвоенных абстракций. Если примитивно как я это понимаю, ЯМ апроксимируют (восстанавливают) исходную функцию из потока данных, который сгенерирован ей. В текстах исходная функция в основном это мыслительный процесс человека, разбитый на уровни абстракций по сложности апроксимации. Самые простые были усвоены в старых версиях ЯМ. 3-4 довольно успешно демонстритуют навыки логического мышления. Это подтверждают и тесты на поступление в ВУЗы, которыми тестируют последние ЯМ. У 4 версии неплохой прирост правильных ответов. Полагаю в этих тестах (которые придумывают для людей, кстати) и проверяются все те навыки высоуровневых навыков мышления, которые присущи людям.
ChatGPT имеет способность логически мыслить, 3.5 версия уже строила логические цепочки. Правда не 100% корректные, но с подсказкой исправлялась. 4 версия наверное более продвинута в логике чем предыдущая, не пробовал. Задавая дополнительные вопросы можно было убедиться, что ChatGPT имеет внутреннее представление задачи или вопроса, с которым он работает. Как правило, те, кто пишет что ИИ не имеет логического мышления или просто копирует то что видел ранее - сами его не использовали.