Comments 217
Причем решать эту проблему на данный момент пытаются ограничением или требованием навешивать ярлык на сгенерированный ИИ контент, иначе получится положительная обратная связь как у микрофона рядом с колонками, и вместо осмысленной речи будет один свист.
У людей практически нет инстинктов, и уж стадного - точно.
Вы слишком хорошо думаете о людях. Инстинктов у нас предостаточно, в том числе и стадный.
Сципион Сигеле, "Преступная толпа"
Пока что у Homo sapiens sapiens нашли только два инстинкта - боязнь змей и пауков и вскидывание бровей при узнавании человека. Остальное либо рефлексы, либо выученные действия.
Потому что инстинкты заложены генетически, одинаковы у всех нормальных особей данного вида и выглядят как "Получил стимул - выполнил определенное действие". Пчела чувствует запах нектара - она летит туда, проверяет, а потом танцем показывает другим пчёлам, куда лететь. Мотылек видит свет - он летит на него. Птица видит раскрытый рот - несет в него еду. Утёнок видит большой движущийся объект - идёт за ним.
У людей же желание секса хоть и заложено, но стимулы для разных людей разные и обусловлены скорее культурно, плюс есть большая вариативность (кому-то нравятся брюнетки, а кому-то блондинки). А за стимулом "Вижу голую женщину" не следует инстинктивное действие "Иду спариваться".
Тогда что делать с теми здоровыми людьми, которые не хотят секса все время своей жизни ?
Наличие инстинкта не гарантируют его реализацию. Например хорька можно вырастить с цыплятами, так что он не будет проявлять инстинктивной агрессии. НО запаха капли крови достаточно, чтобы инстинкт включился.
ИМХО: В большинстве случаев рассмотрев "здоровых" людей отказавшихся от секса, мы увидим, как общество осуществило их социальную кастрацию. Разными методами: будь то объявление секса грехом и демонстрации радостей монастырского послушания, будь то психологов, которые незрелую подростковую асексуальность выдают за гендерный выбор и закрепляют терапией, будь то различные психологические травмы и перверсии, которые закрепляются социумом путем навешивания на человека ярлыков.
Фактически между реализацией природного инстинкта и поведением такого человека, возводится искусственная стена.
В конце концов это классика: "Основной инстинкт" же
Значит эти люди не здоровы. Как минимум психологически. А то и физически (гормональный сбой). Это надо лечить. В норме, у мужчин, даже при отсутствии желания секса, с утра может появляться стоячок. Только проснулся, какое ещё желание? Не рефлекс же это)) на утро. И из желания - разве что ещё поспать. Но организм выдает свое. Поэтому не стоит девиантное поведение называть здоровым.
Желание секса - не является ни разумным выбором, ни разумным желанием
Нестеренко в чате!
А если чуть серьезнее - желание секса ничуть не хуже желания созерцать гору Фудзи, карабкаться по горам или смотреть мыльную оперу.
Желание, при всём желании, не может быть инстинктом. Инстинкт это действие. В отличие от рефлекса - сложное. И неконтролируемое. Начатое не может быть прекращено. Желание секса прекрасно управляется.
Каких только желаний не возникает у людей. И они все бессмысленные. Как и все вокруг. Смысл - понятие искусственное. Желание секса ничем не отличается от любых других желаний, генерируемых дофаминергической системой. Самое главное понимать, что инстинкты и желания - абсолютно разные вещи. Голод и жажда помогают выжить, но это не инстинкты. Желание секса помогает выжить всему виду, но это тоже не инстинкт. Это все желания, возникающие таким же точно образом, как желание поваляться на диване перед телевизором, или накатить стопарик, или даже сидеть решать интересную научную проблему сутками напролет. Дофамин и эндорфины, никаких инстинктов.
И какой из этой философии следует вывод? Многим желание накатить стаканчик коньяку стоит жизни. А кого-то желание секса спасает. Причем чужое. Бывает так, что желание сходить в кино, или подышать свежим воздухом оказывается фатальным. И вообще, жизнь - это сложная штука. Но к теме обсуждения не имеет никакого отношения.
Биология, которая собственно и ввела понятие инстинкта, на сегодня отрицает наличие оных у хомо сапиенса. Как было сказано, найдено всего два. Словосочетания, широко распространенные в быту, такие как "инстинкт размножения", "половой инстинкт", "материнский инстинкт" и даже "инстинкт самосохранения", с точки зрения биологии являются ошибочными. Если говорить про желание секса, то оно не имеет четкого спускового механизма (внешнего раздражителя), а это является обязательным условием для инстинкта. По определению. Далее, оно появляется только после пубертата. И пропадает по мере старения. Инстинкты - врожденные, опять-таки по определению, и работают в любом возрасте. Далее, желание секса у человека принимает самые различные формы и побуждает к абсолютно разному поведению. Даже опуская ориентацию, разные люди склонны к разным проявлениям сексуальности. Инстинкт - работает одинаково у всех особей.
Человек - не единственное животное без инстинктов. Другие человекообразные обезьяны также практически их лишены.
Вскидывание бровей именно рефлекс, не инстинкт.
У хомо сапиенса предостаточно инстинктов, навскидку:
Инстинкт самосохранения. Сюда можно внести описанные вами боязнь змей и пауков.
Инстинкт репродукции.
Социальный инстинкт. Желание иметь друзей, быть чатью какой-нибудь группы
Стадный инстинкт
Забота о потомстве
Инстинкт - это безусловная, непреодолимая реакция, которая не обдумывается а исполняется.
И у человека инстинктов нет. Был бы у человека инстинкт самосохранения - не существовало бы самоубийц, вообще, был бы инстинкт размножения и заботы о потомстве - не существовало бы чайлдфри и мамаш-отказниц, и так далее.
ps кстати, пауки - прикольные и няшные, чего их бояться?
Не было инстинкта были бы только одни чайлдфри, а случайно родившихся оставляли бы подыхать.
Вы постулируете инстинкт как единственную причину иметь детей, напрочь игнорируя даже возможность существования других причин (а они есть). Эта ошибка ведёт логически к другой ошибке: вы называете сложную социальную выученную деятельность инстинктивной, напрочь игнорируя базовое свойство инстинкта: будучи начатым инстинктивное действие продолжится без возможности его прервать. Муравей отнесёт яйцо и запечатает камеру, даже если его в процессе заменить или убрать.
Заменит слово "инстинкт" выражением "программа в БИОСе" и не спорьте.
Готовую программу можно исполнять сразу, а можно пропускать через еще один слой интерпретации.
Ключевое слово "можно". Но где грань? Ну где нужно остановиться в весёлой замене терминов на другие, какие нравятся? И с какой целью? А аллюзии на BIOS - сразу вопрос кто жать-то будет три кнопки, чтоб сбойнувшие экземпляры в ребут отправить? Это ж снаружи нужно. И что это за ребут? Это точно что-то гуманное? Пока давайте не будем сильно заигрываться и остановимся прямо тут. Инстинктов у человека, похоже, нет, зато налицо явный перекос в социализацию. Самостоятельно индивид не в состоянии освоить речь - и далее со всеми остановками до обычного животного с крайне хреновой приспособленностью к жизни. Но в целом из-за разума вид достаточно успешный. Настолько, что может позволить себе прокормить человеков не только без ножки или без ручки, но и с задержками интеллектуального развития в клиническом смысле, ну и прочих у кого "программа" социализации сбойнула на полпути, типа чайлдфри и прочих. Более того, тут ещё один финт социального кодирования, потому что возможность-то есть, но разумных причин это делать - нет. Только социальные. Возвращаясь на шаг назад: деторождение имело совершенно конкретные разумные причины, которые, кстати, частично не работают именно в развитых экономически обществах, и именно это причина снижения рождаемости, а не залихватское "они вышли из-под довления инстинктов". Как вам вариант согласиться и не спорить тут?
Инстинкт - поведенческий паттерн, вы путаете с рефлексами.
Чуть ниже ответил более развёрнуто.
ИМХО У человека есть инстинкт самосохранения. Просто мы живем в такой рафинированной среде, что в большинстве случаев он не срабатывает. Вот сработает такой инстинкт, среагируешь ты на него по обезьяньи и все - уцепился так, что клещами не разожмешь.
И еще... Большинство инстинктов человека в настоящее время представлены низкоуровневыми паттернами. Например сходящиеся линии на плоском рисунке человек инстинктивно интерпретирует как перспективу. Нам кажется это элементарное действие, но это сложный акт в котором участвуют и мышцы глазного яблока, и рецепторы и мозг.
Опять же. Репродуктивный инстинкт не подходит к тебе и не говорит "часики тикают!"... Мальчику приятно подержаться за девочку, а девочка в сильных руках "тает". Все это сложные действия. Таких врожденных паттернов поведения в человека заложено много.
Природа дала нам кубики из которых предлагается собрать домик. Но у некоторых получается либо паровоз, либо автомат калашникова.
У биологов-этологов есть вполне конкретное определение инстинкта, и это не "подсознательный паттерн поведения", "врождённое желание" или что там примерно понимают под этим словом обычные люди. Вот, посмотрите "Всё как у зверей": https://www.youtube.com/watch?v=BtAGeVaSapY
Эх! Вы же понимаете, что Тимонова не ученый, а пропагандист. Она пришла в этот бизнес из рекламы. И как любой пропагандист она демонстрирует ОДНУ из точек зрения, как единственную подбирая доказательную базу именно под неё. Иногда она пропагандист науки( пусть и с односторонним взглядом), иногда нет (и тогда она пропагандирует политические воззрения или социальные модели)..
Подобно как евангелист какого нибудь фреймворка показывает на синтетических тестах его превосходство, так и Тимонова показывает не весь спектр научной мысли, а его часть. Обычно ту часть, которая будет хорошо индексироваться Гуглом.
Да, действительно идея что у человека нет инстинктов сейчас набирает популятность в науке. Но пока это одна из идей. И связана она с социализаторством человека. Из разряда "пола нет, один гендер".
В дискуссии здесь тоже не учёные собрались, по-моему :)
Тимонова может не быть учёным, но она, как популяризатор, пересказывает учёных, пусть даже только некоторых. А большинство комментаторов пересказывают не других учёных, а свои стереотипы и домыслы. Так что лучше слушать Тимонову.
Лучше иметь взвешенное мнение...
Идея что у человека нет инстинктов не нова. Например в СССР согласно марксистско-ленинской теории и теории Павлова у человека не было инстинктов и вообще инстинктов не было. А были цепочки рефлексов. Российская наука в значительной степени наследует этот подход.
С другой стороны не все современные ученые отрицают инстинкты человека. Например, Эдвард Уилсон в книге "Хозяева Земли" не стесняется использовать термин инстинкт по отношению к человеку, понимая под ним эпигенетические правила, определяющие культуру и поведение человека. Хотя что с него взять? Он специалист по муравьям.
Другие ученые, признают, что хотя слово "инстинкт" и утратило научную строгость, это не повод отказываться от этого термина. Так Меннинг в книге «Поведение животных»: «Понятие инстинкта или инстинктивного поведения все еще является привычным. Оно — часть повседневной речи и может быть использовано для обозначения как человеческих, так и нечеловеческих действий». Но там же он приводит примеры, когда классическое определение инстинкта не подходит даже для описания поведения животных.
Т.е. есть спектр мнений.
Случай же с этим развернувшимся холиваром явно показывает, что спорщики, отрицающие инстинкты человека, в принципе цитируют один первоисточник. И общий пример с бровями, как маркер. Т.е. это одна узкая линия в спектре. Просто мультиплицированная путем копипасты различными блогерами. Вот прочел человечек N+1, посмотрел Тимонову и уверился, что он знает научную истину из последних рук.
На самом деле этот холивар о соотношении биологического и социального в человеке он вечен. А "инсктинт" - просто слово. Сейчас это не популярное слово в науке. Но этому есть социальные причины. В Этом отношении мне близко мнение Е.А. Гороховской: "Наличие или отсутствие у человека наследственных универсалий в поведении -- вовсе не выводы из рассуждений или наблюдений, а исходные установки, исходное восприятие поведения человека, исходное понимание его сущности. В силу этого коммуникативный барьер между спорящими -- чрезвычайно характерная особенность всей полемики об этологии человека. Иногда спор напоминает разговор двух глухих." Что мы радостно и демонстрируем ;)))
Вскидывание бровей - это инстинкт. Он есть и у слепых при звуках знакомого голоса.
Для остальных названных вами вещей попробуйте указать видотипичный (одинаковый для всех особей Homo sapiens sapiens) стимул и видотипичное действие, выполняемое независимо от внешних обстоятельств при возникновении стимула. Для примера можете описать проявления этих инстинктов у детей-маугли.
Вы путаете условный рефлекс и инстинкт. Вскидывание бровей - врождённый условный рефлекс, как убирать руки от обжигающей вещи, выделение слюны при запахе еды и тд.
Инстинкт - это поведенческий паттерн, передаваемый генетически. И разумеется у хомо сапиенсов эти паттерны либо тесно вплетены в культуру, либо могут быть подавлены у отдельных особей. Когда вы голодны ваш инстинкт толкает вас пойти на поиски еды, но, например, в блокадном Ленинграде бывали случаи, когда завхозы, ответственные за продовольственные запасы сами умирали с голоду, хотя казалось бы вот под твоим учётом запасы города на несколько недель вперёд, бери, покушай, да учёт подправь, чтобы не расстреляли по законам военного времени.
Вы же видели ролик, где человек на пробежке утром по оживлённому городу спровоцировал панику? Это проявление стадного инстинкта, но если бы мы вдавались в панику каждый раз, когда видим бегущую толпу, то и марафонов не было.
От рефлекса инстинкт отличается уровнем нервной деятельности. Если вас привести в бессознательное состояние, то рефлекс, например коленный, работать по прежнему будет, а инстинкт уже нет.
От поведения же инстинкт отличается тем, что является полностью врождённым. Цепочка "потребность-стимул-действие" у инстинкта не зависит от обучения, социализации или настроения.
А тот ролик, скорее всего, постановочный. Исходная группа бегунов расслаблена и явно не спасается бегством, а просто совершает пробежку.
Согласно этому определению, младенец в два месяца переворачивается на живот инстинктивно. Это не рефлекс, т.к. требует сознания, и не выученное поведение, т.к. в таком возрасте они ещё плохо понимают, что происходит в округе, и никто специально не учит.
«Врождённый условный рефлекс» — это оксюморон :)
врождённый условный рефлекс
Условный рефлекс не может быть врожденным. Врожденным называют безусловный.
Условный рефлекс на то и условный, что формируется в процессе жизнедеятельности в зависимости от условий. Например, при включении света в знакомой комнате рука автоматически попадает на выключатель. А вот в гостях вы будете промахиваться (если это, конечно, не 3-я улица строителей...)
пожалуйста, посмотрите определение инстинкта. это сложные акты поведения. отнести к сложным актам поведения вскидывания бровей, как мне кажется, не совсем правильно
Если бы забота о потомстве была инстинктом, люди бы знали, как воспитывать детей, и не существовало бы разных стилей родительства.
Кошки, выращенные три тысячи лет назад кошками, такие же кошки, как сегодняшние, у них те же ценности, те же привычки. Как три тысячи лет назад кошка таскала котёнка за шкирку и лупила лапой за непослушание, также это сегодня и происходит.
Люди то детей пеленают, то нет, то носят на себе, то не берут на руки, пусть в кроватке лежит, то устанавливают режим, то следуют за потребностями младенца, то бить детей можно, нужно и хорошо, то теперь нельзя. И это не эпизодическое, а массовое, у всех людей нет инстинкта заботы о потомстве, это социальное поведение.
Человек получает ребёнка в роддоме, и у него никаких идей, что делать с ним дальше, это всё социальное знание. У кошек нет консультантов по лактации, их заменяет инстинкт. И не то, чтобы это только негодным сломанным женщинам нужно было бы учиться кормлению грудью, а у "нормальных" оно само, нет, даже это не инстинкт, естественное поведение, но научаемое, не инстинктивное. Инстинктивно женщина, извините, даже ребёнка к груди не может приложить, учиться надо, а тут прямо вся забота - инстинкт.
Вы ошибаетесь с родительским инстинктом. То что надо учить как к груди прикладывать - это вообще спорно. Дело в том, что люди любят рационализировать все и придумывать правила. Поэтому таким правилам да, надо учиться. Но ничто не мешает женщине просто приложить ребенка к груди и сунуть ему титьку.
Но родительский инстинкт сам по себе существует, трудно назвать рефлексом, когда ты реагируешь на плачь ребенка. На него даже мужчины реагируют, и не просто как на раздражитель. Или такой пример, у женщин может молоко появится, даже когда она не рожала, но рядом есть маленький ребенок грудничок. Гормоны бьют. Запускается биологический механизм. Это не обычный рефлекс, т.к. здесь сложный и не мгновенный процесс.
А тот же инстинкт размножения? Вы будете отрицать, что мужчинам не хочется секса? Или что женщины фригидны? А это ведь инстинкт. Сложный процесс. В котором есть и такие штуки, как инстинктивное изменение поведения, чтобы тебя заметил самец или самка. Типа покачивания бедер у самки при ходьбе, позы и т.п. Этому даже учиться не надо, у женщин это врождённое. И чем более женщина дикая в социальном плане, тем более явно выражены эти проявления. У мужчин аналогично. Повышение агрессии, попытка показать себя с лучшей стороны, сильнее, чем ты есть на самом деле и т.д. Это все инстинкты, а не социальные примочки, что приобретены из человеческих правил.
Мешает, конечно. Многим больно настолько, что те, кто побогаче, нанимали кормилиц (тех, ко умел кормить, не умирая от мастита, например), а те, кто победнее кормили младенцев с первого дня чем попало, отчего смертность от кишечной непроходимости и кишечных инфекций была зашкаливающей. Это было абсолютной обыденностью. Кошке не прийдёт в голову сунуть двухдневному котёнку кусок мяса, а людям - вполне. Потому что у кошки есть инстинкт, а у людей - нет.
Выделение молока не является сложным поведенческим паттерном, поэтому это не инстинкт. Плач ребёнка раздражает, поэтому люди тысячелетиями игнорировали, били и выкидывали плачущих младенцев и даже продолжают это делать, несмотря на то, что сейчас в большинстве стран за это предусмотрено уголовное наказание. Вы плоть от плоти детоцентричной модели общества. Если вы взглянете, как дети жили ещё совсем недавно, какая там забота. Люди побогаче просто сдавали своих детей нянькам, где же был их инстинкт? Может быть, они, как собаки, потерявшие щенят, кормили плюшевых игрушек? Нет, жили себе дальше, этому полно документальных свидетельств. Люди победнее тоже не утруждали себя заботой о детях, о них обычно заботились старшие сиблинги, тоже дети, типа лет пяти. Может, инстинкт заботы о сиблингах существует? Тоже нет, сиблинги и выкинуть младенца могли.
Если вы почитаете, как устроен секс с биологической точки зрения, то увидите, что "инстинкта размножения" там и рядом не стояло. Стремление заняться сексом есть, конечно, а дети, как у людей, так и у животных - это побочный продукт этого стремления, "можно подробнейшим образом описать сексуальное поведение человека во всем его разнообразии, и ни разу не упомянуть, что вообще-то эта штука нужна для продолжения рода". Большинство людей вообще очень приблизительно знали ещё совсем недавно, как секс с детьми связан. Что далеко ходить, поколение наших бабушек шло к врачу за тем, чтобы узнать, отчего болит живот, а там с удивлением узнавали, что это беременность. Ну какой инстинкт размножения. Люди в основном хотят хорошо время провести, а не размножиться.
Про привлекательность вынесу в отдельный пункт. Я женщина, и я училась привлекательной "женской" походке перед зеркалом, как и многие мои товарки, выбрав себе модель из суперзвёзд. Вот смотрите, пингвин, когда хочет понравиться самке пингвина, несёт ей камушек. Несёт его сегодня, вчера и тысячу лет назад. Камушек, у него инстинкт. Человек, который хотел создать пару с женщиной тысячелетиями.... её покупал. Вы, как мужчина, инстинктивно собираете калым? Самке, чтобы быть привлекательной, нужно инстинктивно танцевать твёрк или глазки долу и всячески демонстрировать свою чистоту и непорочность? Это всё в рамках одной временной линии, без экстремальных примеров вроде бинтования ног, дисков в губе и прочих колец на шее для пущей привлекательности.
Это все инстинкты, а не социальные примочки
Во-первых, слово "инстинкт" имеет несколько разных трактовок, не забудьте дать свое определение перед ссылкой на термин.
Во-вторых, я вряд ли ошибусь с предположением, что большинство современных исследователей придерживается той точки зрения, согласно которой у человека еще сохранилось несколько простых инстинктивных реакций, проявляющихся у новорожденных, но у подростков и взрослых подавляющее большинство двигательных стереотипов и эмоций диктуются опытом, а не врожденными программами.
И социальные убеждения (аттитюды) в человеческом опыте составляют значительную часть, поскольку становление личности происходит с активным использованием метода копирования.
Например, упомянутое "завлекающее покачивание бедер" в разных культурах будет выглядеть очень по-разному, иногда вовсе без использования ног. Не переоценивайте свое убеждение на тему врожденного.
Причем решать эту проблему на данный момент пытаются
Решать эту проблему как и обычно, когда неизвестно что сработает, пытаются разными способами. Дообучением на сгенерированных данных, деревьями поиска, дообучением на отзывах (RLHF) и, если верить одной интерпретации утёкшей из OpenAI информации, дообучением с использованием Q-learning (ага, положительная обратная связь).
вместо осмысленной речи будет один свист
В вырожденном варианте с прямой положительной обратной связью - да, но если в цепь обратной связи добавить даже простейший фильтр, то получится не свист, а что-то другое, зависящее от характеристик фильтра. А если характеристики фильтра зависят от сигнала, то может получится интересно.
Я бы сказал, что как раз наоборот. Они ничего не сохраняют, а поэтому и воспроизвести не могут. Они генерируют заново, исходя из гигантского набора вероятностей.
Поэтому новое-то они создать могут. Но это будет новое вероятное, а не достоверное. Приземления на реальность не будет.
А вот чего у этой штуки точно нет - это аналитического мышления, умения нащупанные паттерны обернуть в формулы и зафиксировать причинно-следственные связи.
Главный вопрос не в том, есть ли у генеративных моделей аналитическое мышление. А в том, есть ли оно у людей, и в какой форме? Какой % людей хочет считать, что это самое аналитическое мышление у них есть, хотя на самом деле они просто слово-в-слово повторяют тезисы, которые им в голову вдалбливали и вдабливают семья, политики, новостные агентства, соц. сети... хабр? И на сколько это отличается от генеративных трансформеров?
Важно то, что человеческий мозг вообще к нему способен. Человек в принципе может, например, разделять корреляцию и причинно-следственную связь, и делать разные выводы в этих двух сценариях. Для генеративной нейросети есть только веса.
Да, какой-то процент людей этой опцией не пользуется (или пользуется, скажем, на работе, но напрочь отключает её, садясь перед телевизором) - даже я бы сказал, очень высокий процент. Но там, где эта опция таки задействуется, нынешним нейросетям пока делать нечего.
работал с нейроками на наборе данных со скрытыми (замаскированными) зависимостями, ни корреляция, ни регрессия, ни дерево решений типа катбуст от яндекса не увидели их, а многослойная нейронка - увидела... так что не все так просто... ясно дело ни один эксперт (живой человек) никаких зависимостей в этом наборе данных не увидел... так что веса они веса, но когда их много, очень много, миллиарды и мвязей триллионы, то возможен, по некоторым филосовским направлениям, - переход кол-ва в качество. На этом счет есть расказы Станислава Лема - 1) Формула Лифатера 2) не поню названия, там произошла саморгнаизация компьютерных сетей в нечто большее по достижении некоторого критческого кол-ва вычислителей в сети... и эти расказы 50 лет назад были написаны...
А вот в этом то и вопрос: вы заранее знали ответ, и поэтому так восхитились результатом нейронки. А если этот ответ вам бы был не известен? Нейронка выдала наличие зависимостей, а эксперты их не увидели, так что это: глюк нейронки или новое открытие? Где критерий, кроме скурпулезного изучения теми же экспертами? Получается не интеллект, а генератор псевдослучайных чисел.
А насчет миллиардов связей, так это отсылка к мозгу человека, типа, вот когда нейросеть станет такой же разветвленной, вот тогда ... А вот есть сомнение. При том ужасающе низком быстродействии человеческого мозга (передача импульса между двумя нейронами это миллисекунды) человек в принципе не может использовать эти миллиарды связей при принятии решений. Тем не менее каким то непостижимым образом выбираются именно необходимые. Так что прежде, чем говорить об искусственном интеллекте, не мешало бы разобраться с естественным.
О да, цитата из Цивилизации 4, корторая в свое время взломала мне мозг:
"Проблема состоит не в том, думают ли машины, но в том, думают ли люди."
Умение нащупать патерны таки есть.
Просто эти патерны не имеют никакого отношения к формальной логике в нашем понимании. А также могут описывать выдуманный мир.
Ясно, что это мышление не является аналитическим. Но все же часть задач на уровне среднего работяги в школе вместо обучения жмакавшего девушек - есть.
Как минимум это прорыв, хоть и кривой до невозможности.
Каждый, кто воспитывал детей, знает: до определенного возраста они галлюцинируют абсолютно так же, как и ИИ, пытаясь давать в качестве ответа на неизвестный вопрос, рандомный ответ, вписывающийся в известную картину миру.
Хочется сказать, что с возрастом меняется только последнее множество, известная картина мира становится все больше и больше.
И вся генерация нового знания строится исключительно на комбинировании элементов этой самой картины мира с последующей валидацией здравым смыслом (который представляет из себя, опять же, опыт) и известными законами мира.
Иными словами, то что чатботы галлюцинируют - это круто и правильно. Вопрос только в том, какой инструмент нужно добавить для проверки адекватности этих галлюцинаций. Сейчас таким инструментом выступает сам человек.
Только вот с помощью абстрактного мышления люди пришли к такому паттерну, как моделирование, где балом правят чётко закреплённые формализованные понятия, независимые от галлюцинаций и чужого мнения. Создано огромное количество пока ещё отлично работающих инструментов познания, с помощью которых формализуют и категоризируют новые добытые знания, не зависящие от мнения одного индивида.
Если один ученый "заглючит", то это не поменяет ровно ничего в формулах, моделях, правилах, аппаратах. Ни один бит в науке не поменяется от того, что кто-то внезапно уверовал, что "2+2 - это по е**лу н-на!".
Так же и генеративные модели должны усвоить чёткий набор формализованных аксиом, на их основе выводить все остальные законы наук и максимально чётко запоминать их. Если они на это не способны, тогда этим не генеративные модели должны заняться, а какие-то другие, которые придут им на замену.
Это просто другая область знаний с развитием БЕЗ формальной логики.
Как минимум - это интересно и открывает новые возможности. Если у вас был массив текста, до которого руки не доходили и не дойдут - ну и что, что бот пропустит значимые факты и нафантазирует чуток новых. Ваш интерн сделает то же самое.
Проверять надо. Но если ничего нет, то проверять нечего, правда?
Да и вообще, даже если это пшик - он наконецто направляет деньги людям занимающимся ИИ. То, чего мы долго ждали. Криво, как и все в современном мире. Но работает же!
Так же и генеративные модели должны усвоить чёткий набор формализованных аксиом, на их основе выводить все остальные законы наук и максимально чётко запоминать их.
Также как и кто? Если вы подумаете немножко, вы сообразите что люди, например, так не делают. Иначе после Евклида не появилась бы геометрия Лобачевского-Римана, и после Ньютона не появились бы формулы теории относительности. Или не появлялось бы у людей множество разных религий, моральных систем и социальных строев.
У людей нет какого-то "четкого набора формализованных аксиом на основе которого они выводят все остальное". Это и проблема - ведущая к тому, что каждый верит во множество вещей, которые иногда даже друг друга на самом деле логически исключают, и благо - это позволяет нам иногда пересматривать и улучшать даже то, что казалось бы, было уже точно установлено.
Или не появлялось бы у людей множество разных религий, моральных систем и социальных строев
Я говорю строго в контексте знаний и наук. Конечно, во всех остальных сферах бардак полный и нет объективности.
люди, например, так не делают
Делают. Геометрия Евклида работает только для нулевой кривизны, люди это усвоили и доработали геометрию под другие 2D и n-мерные пространства. Поняли, что созданное учение не соответствует реальной картине мира - пора его дорабатывать или создавать новое.
Точно так же модели нейросетей должны научиться выводить строго формально одно из другого и понимать границы применения этих знаний. Для этого нужно абстрактное мышление, скептицизм, базовые знания как минимум современного школьника старших классов...
С неевклидовыми геометриями было не так. На момент их создания у людей не было никаких причин считать окружающее пространство неевклидовым. Наоборот, людям не нравилась одна аксиома, которая выглядела слишком переусложнённой, на фоне остальных. При этом аксиома полностью вписывалась в наблюдаемый мир.
Поняли, что созданное учение не соответствует реальной картине мира - пора его дорабатывать или создавать новое.
Э, как вообще абстрактная математика привязана к "картине мира"? Она вещь в себе, существует вне мира, идея. Впрочем, это уже к философам. Но это просто набор аксиом, базовых терминов, методов работы с ними. Во вселенной нет чисел, например, они только у нас в головах. Да, конечно же реальные явления моделируются математически, но это же совсем другое. Когда изучали фракталы, их изучали просто так, а потом уже обнаружились проявления.
Я согласен, что будущее ИИ за умением следовать формальной логике и для этого, вероятно, потребуется другая архитектура нейросетей, с несколькими проходами по латентному пространству, ассоциативным поиском по эмбеддингам, разными видами долговременной и краткосрочной памяти.
Языковые модели обучаются на человеческом корпусе знаний, а он заведомо необъективен и противоречив. Было бы интересно чтобы мультимодальная нейросеть искала закономерности не в текстах, а в окружающем мире. Из одного видео падающего предмета можно сделать предположение о гравитации, например. Но чтобы она потом это смогла рассказать нам, ей всё равно придётся выучить язык.
Дети галлюцинируют от недостатка знаний, взрослые перестают галлюцинировать (иногда и в определенных областях) потому что они знают больше, можно сказать достаточно (спросите меня о механизме появления черных дыр и не оставьте мне выбора отвечать или нет, то я вам тоже такого нагаллюцинирую, что не зная с кем вы говорите, подумаете что это ChatGPT). А GPT содержат столько знаний, сколько ни в одного человека за всю жизнь не влезет и тут проблема уже в другом - в избытке этих знаний. Галлюцинации могут возникать как раз из-за такого избытка, когда невозможно достоверно вычислить то самое среднее, потому что вариантов намного больше, чем у обычного взрослого человека.
Возможно, решение лежит в поиске новых механизмов работы с этими массивами, механизме, которого у человека нет и вряд ли появится, а потому его придется изобретать, а не просто реализовывать по кальке. Может это некая многоступенчатая обработка, когда есть несколько точных небольших моделей на входе, которые коллективно и достоверно определяют/сужают тему и смысл запроса и инструктируют низлежащую модель, обладающую всеми существующими знаниями или что угодно ещё.
возрастом меняется только последнее множество
Еще неизвестно, сколько в этой взрослой картине мира незамечаемых нами галлюцинаций.
Если смотреть в прошлое, можно сделать вывод, что очень-очень много.
А как же генерация того, чего нет в знаниях? Поясню. В математике некоторые формулы можно доказать графически. В таком случае, математик может нарисовать фигуру, а чтобы доказать ее - ДОрисовать ее. Нарисовать отраженную фигуру и прочертить проекцию, из треугольника сделать квадрат и т.д. Как в теореме Пифагора, например. И нет никакого основания, чтобы это сделать.
Там даже формулировки используются соответствующие. Начинаются на слово "Допустим". Доказательство от обратного. Т.е. это не интерполяция имеющегося знания. Получается, ваше предположение обязательной части ии неверно.
Хотя, я могу здесь ошибаться, ведь чтобы это сделать (вообразить, представить), надо как минимум понимать "базовые" вещи, из которых построено это предположение. Тогда получается, что генерация нового знания - это лишь банальный перебор новых переменных/образов и дальнейший рассчет на их основе. И это давно уже успешно используют. Но это же не делает ИИ чем-то более, чем супер калькулятор. Получается, ваше предположение все равно неверно.
Есть ещё такой момент - не все человеческие знания достоверны. Люди пользуются терминами, которые лишь обозначают что-то, а самого понимания у человека нет. Прогремел гром на небе, древний человек/обезьяна испугался, а потом рассказал другой особи из своей стаи, что слышал "БууугБуууг БуУууг!!!". И образ у них будет такой, что там на небе сидит большая обезьяна и злиться и кричит. Так могло появится слово "Бог". Об истинности этого люди до сих пор спорят)) Поэтому, в моем понимании, надо разделять понятие ИИ на 3 части: "человечность ИИ", "способность обучения" и "способность генерации нового знания". "Человечность ИИ" - это лишь интерфейс, предоставляющий человеку возможность удобного взаимодействия с результатами работы двух прочих частей. Но это очень сложный интерфейс. Ведь людей миллиарды, языков сотни, а сколько смыслов в этих языках... И chatgpt это большой шаг в развитии этого интерфейса.
Допустим). А вы много сгенерировали нового? ). Кроме дизлайков под моим постом, что вы создали? И не просто создали, а абсолютно новое, ни на что не похожее? Во-первых когда что-то действительно создаётся - это лишь с большой натяжкой "новое", если я создам абсолютно новую мелодию, ее никто не поймет, она должна быть на что-то похожа. Даже когда учёные что-то открывают, это основано на долгой и кропотливой работе, огромном количестве информации и большом количестве экспериментов, вот поэтому в плане открытий так тяжело - придумать что-то новое - крайне сложно и это крайне редкое событие.
Насчёт сгенерировать новое тут нужно уточнять на каком уровне новое. Текст структурно состоит из символов, слов, предложений, завершённых статей и т.д. Всё это, кроме базовых токенов нейросеть генерирует. Человек тоже не в состоянии ничего сгенерировать, если его не обучили алфавиту. Если он не прочитал ни одной книги, он не сможет ничего написать. Ну, хотя человек это не лучший пример, ведь речью он овладевает раньше, чем чтением и письмом. То есть можно сказать, что мы тоже компилируем все свои тексты из выученных когда-то букв, из подсмотренных в книгах слов, да и целые идеи берём у кого-то. Конечно, этот кто-то их сам придумывал, но и он сочетал базовые понятия.
Вот вам простой пример чата даже не GPT4, а бесплатной версии:
-- Придумай новое слово на букву «К», заканчивающееся на «Я», и внутри которого текст как-то связанный с орехами.
-- Кедроя
-- Придумай еще 10 таких слов.
-- Каштаноя
Кедровля
Кунжутоя
Кешьюя
Кокосоя
Кариоя
Кедровичия
Кунжутария
Каштанария
Кокосария
Ну вот, выдала слёту 10 несуществующих ранее слов. Теперь уже проиндексируются, возможно. Использовала для этого знания о структуре слов и семантику об орехах. Вполне творческое, хоть и довольно прямолинейное, решение.
Нейросеть, как калейдоскоп, скомбинировала имеющиеся у нее корни слов, связанных с орехами, с окончаниями. Я пытался добиться от моделей создания принципиально нового слова - не вышло ;)
Человек такое придумает за пару секунд. Например: артризер, кутрабия :)
Сейчас в гугле проверил, таких слов до этого в сети не было.
Зато нейросеть может очень правдоподобно придумать, про что это слово. И ввести в заблуждение легковерных пользователей интернета

Типа такого

Придумай совершенно новое слово, не совпадающее ни с одним из ранее существующих и не использующих корни других слов.
ChatGPT: Кондриллокс.
Если что, это вымысел нейросети :)
Уже нет. Если следовать рецепт, то получится какое-то съедобное блюдо. И оно называется кутрабия, потому что автор присвоил ему это имя.
Единственная «ложь» это про турецкую кухню. Но реальные кулинары тоже врут и заблуждаются на каждом шагу.
Данные программы не имеют никакого отношения к искусственному интеллекту по одной простой причине, что действуют они по заданному людьми алгоритму и улучшить этот алгоритм сами они не могут от слова "совсем".
В рамках отдельного чата с несколькими репликами - вполне могут обучаться новым терминам, действиям. Например, я обучил её новому выдуманному арифметическому действию, когда к двум числам прибавляется по три, а потом они перемножаются. Задал выдуманное название и потом просил проделать эту же операцию с другими числами. На небольших числах работало.
Плюс за то, что автор этой статьи -- Тед Чан.
Минус, что статье уже почти год.
Автор, а Вы считаете, что человеческий интеллект, в отрыве от инстинктов и других встроенных биологических фишек, нечто большее, чем просто сложный архиватор с архитектурой хорошо заточенной под источники получения информации об окружающем мире (органы чувств)?
Давайте зайдем в Википедию и наберём "интеллект":
Интелле́кт (от лат. intellectus «восприятие»; «разуме́ние», «понимание»; «понятие», «рассу́док») или ум — качество психики, состоящее из способности осознавать новые ситуации, способности к обучению и запоминанию на основе опыта, пониманию и применению абстрактных концепций, и использованию своих знаний для управления окружающей человека средой.
Здесь и понимание абстрактных концепций, и осознание новых ситуаций (может ли GPT сама себя обучить, синтезировать новое?)
Всё-таки есть четкое ощущение, что тут гораздо больше фичей, чем у архивера.
Но вопрос дискуссионный, согласен
AlphaZero может сама себя обучить, например.
Человек-то сам себя обучить не может. Гарантировано.
Википедия не является достоверным источником
Ну "Китайская комната" Сёрля дает повод к такому выводу.
Она скорее даёт повод к размышлениям о проблемах естественного интеллекта. Понимание или непонимание языка человеком в комнате не имеет никакого отношения к работе системы, но оно (понимание) почему-то используется как критерий.
Да-да, ChatGPT, конечно же это мероприятие или концерт. День хлопка на плантации отмечают, не иначе.
Если не знать, что это хлопок на плантации, то вполне можно принять это за концерт и человеку. Вы бы ему ещё подсунули классическое "Что на картинке - два профиля или ваза?".
Допустим, некий текст, где фигурирует Второй закон Ньютона (Сила = Масса х Ускорение). Вероятно, самый простой способ сжать без потерь такую статью - это заложить в алгоритм сжатия базовый постулат, что "Сила = Масса Х Ускорение". Тогда алгоритм может выкинуть повторящиеся куски статьи, вытекающие из логики этого закона, а потом легко их восстановить при надобности (потому что знает сам базовый принцип).
Получится обмен шила на мыло. Потому что для того, чтобы восстановить куски статьи, мы должны не только знать базовый принцип, но и уметь строить логические цепочки. И это "умение", превращенное в алгоритм, тоже будет занимать место.
Особенно "хорошо" это будет работать с экономикой, да. Там столько поправок к закону спроса-предложения, типа демонстративного поведения (эффект Веблена), что идея засунуть их в алгоритм "сжатия" по сути превращает в архив статьи сам алгоритм.
Здесь приводятся пример логики для понимания базового принципа. Понятное дело, что в алгоритм нужно закладывать не только спрос и предложение, но и основные исключения. И алгоритм еще должен быть в состоянии понять, гле можно применять закономерности, а где не стоит (неучтенные исключения, например).
И алгоритм еще должен быть в состоянии понять, гле можно применять закономерности, а где не стоит (неучтенные исключения, например).
Так для этого в него надо не только заложить Википедию, но и научить понимать. Вот прям реально понимать. Чтобы он мог открыть, например, статью про производство кофе и найти там, что большинство доступных площадей под кофе уже занято, и предложение кофе обладает весьма слабой эластичностью. А вот площадей под пшеницу - навалом, и её при необходимости можно вырастить вдвое больше. А для увеличения добычи нефти понадобится освоить добычу из-под вечной мерзлоты. А для увеличения потребления газа в Европе - восстановить Северные потоки. А прикрутить добычу газа, в отличие от добычи угля, очень сложно - скважину с газом не заткнуть.
Удачи вам всё это в алгоритм засунуть.
Засовывать всё и не надо. Достаточно заложить основные строгие принципы, а также механизм понимая, где к ним можно прибегать, а гле нет.
И это не я придумал, если что. Почитайте про тот же приз Хаттера
Достаточно заложить основные строгие принципы, а также механизм понимая
То есть - полноценный искусственный интеллект. Всего-то.
скважину с газом не заткнуть.
"Ну... одному еврейскому мальчику государству это таки удалось!"
В предложенной задаче по сжатию без потерь это вообще не имеет смыла. Вообще там получается, что самый лучший интелект 7zip
Но вот представим пример:
200 * 300 = 60 000,00
Казалось бы для сжатия мы могли бы выкинуть ответ выражения, потому что наш могучий интеллект готов его посчитать на лету. Но вспоминаем, что цель у нас получить идентичный ответ. Значит нам надо сохранить метаданные, рассказывающие нам, что надо отделять тысячные разряды пробелом, что разделительная символ у нас запятая, что точность до двух знаков после запятой. И в итоге оказывается, что проще оставить результат готовым, а не заниматься интеллектуальным трудом.
Что-то типа алгоритма Хаффмана? Там теоретический предел сжатия каноничного алгоритма в районе 30%, насколько я помню.
очень сильно зависит от входных данных. Набор из миллиарда 0 закодируется 5 байтами
Где-то здесь должна быть ссылка на колмогоровскую сложность.
Понятное дело, так то и сортировать за линию можно при определенных входных данных.
И что делать с ошибками. Бессознательными (те же опечатки) и сознательными.
Например по всей статье дробная часть запятой отделяется, а здесь наборщик спешил и поставил точку по недосмотру.
Или идет длинное доказательство теоремы Ферма, но где-то в середине автор внедрил "2+2=5" и дальше пошло-поехало.
Получается придется делать исключения к своей к картинке мира, чтобы воспроизвести результат 1 к 1.
Языковые модели не особо помогут в сжатии без потерь. Идея сжатия тут может быть описана в том виде, что у вас есть огромный набор операций умножения и нужно их порешать. Сначала нейросеть запоминает всё как есть, ну, в весах и смещениях, не явно, конечно. Но ей кидают всё новые и новые примеры и место для запоминания в лоб заканчивается, нейросеть подключает скрытые слои и там где-то формируется нечто, похожее на правила умножения, не в таком формальном и чётком виде, конечно.
Вы бы ему ещё подсунули классическое "Что на картинке - два профиля или ваза?"
Можно ещё на фотке с платьями проверить.
Именно по этой причине полноценный автопилот для автомобилей - все также далек как луна пешком. Именно полноценный, когда в машине совсем нет руля за ненадобностью. И она едет по любым дорогам от горных перевалов до индийских перекрестков. Всегда остается ненулевая вероятность глупой фатально-летальной ошибки, которую человек не допустил бы.
Зато если когда появится, с такой машиной можно будет неплохо болтать «за жизнь» в процессе езды :)
А еще она сможет отказаться тебя везти, потому что ты ей не понравился по какой-то ее машинной причине)))
В США уже делают скидку на страховку до двух раз на основе "анализа" нейросетью вашего вождения. Правил нет, тупо статистика и биг дата. Анализируют, насколько ваш стиль похож на стиль безаварийного водителя. Тоесть эксперт-гонщик - получит увеличение страховки.
Такшо вполне может быть, что конкретная машина конкретной компании откажется вас везти по "экономическим причинам".
В США в свое время пошли иски против этих алгоритмов за дискриминацию. Не следили правда чем закончилось. Не в последнюю очередь потому, что reckless drivers почему-то оказались в основном черные и это сочли дискриминацией, мол нельзя по паттерну вождения судить о том, насколько человек имеет шанс попасть в дтп.
Зато если когда появится, с такой машиной можно будет неплохо болтать «за жизнь» в процессе езды :)
Лучше мотоцикл.

Всегда остается ненулевая вероятность глупой фатально-летальной ошибки, которую человек не допустил бы.
Вы так говорите, как будто у человека нет вероятности глупой фатально-летальной ошибки. Типа "заснуть за рулём" или "отвлечься на телефон".
Мне кажется, автопилоту не надо быть идеальным. Ему достаточно быть лучше человека. Если автопилот смертельно ошибется раз в двадцать миллионов километров, а человек раз в десять миллионов, то почему бы не пользоваться автопилотами?
"Заснуть за рулём" или "отвлечься на телефон" это вполне отслеживаемые паттерны поведения, которые зависят от ответственности водителя. А езда с ИИ без аналитического осознания окружения, скорее похожа на езду с эпилептиком, когда без каких-либо предупреждений на достаточно ровной дороге автомобиль может остаться без контроля. Ошибки человека в большинстве случаев предсказуемы, ошибки нейронок очень часто могут быть внезапными и неожиданными.
Достаточно чтобы ошибок ИИ было меньше чем ошибок кожаных. А чтобы обойти иррациональный страх кожаных, нужно будет всего лишь оставить кожаным иллюзию контроля — поставить в каждый ИИ-мобиль большую красную кнопку СТОП.
Не факт что предсказуемы. Далеко не каждый водитель способен на время езды целиком окуклить свое внимание от всего постороннего. Поверх навигатора выскакивает звонок начальника/жены, например, и как минимум несколько сотен мс внимание отвлечено. Сбить пешехода, например, за это время можно как здрасьте, если машине не повезло в этот момент проезжать переход, а пешеходу - перебегать.
Посмотрте любое видео дтп. Человеки именно так и делают - умудряются убираться на ровной дороге.
Да явно у водителя и И буду различные паттерны ошибок, только вот если в среднем люди будут меньше умирать то это уже очень хорошо. Еще в таких случаях люди в коментах часто себя считают хорошими водителями с хорошей реакцией или говорят о мифическом профессиональном водителе, который и старушку обьедет и по встречке не соберет паравоз из 10ти трупов. Но реальность она на видосах ютуба немного другая. Да и про реакцию и физ возможности среднего водителя я вообще молчу. Откуда она может быть если человек мог недоспать, сидеть 8 часов за компом на работе и тд?
Ошибки человека предсказуемы - в большинстве случаев это потеря контроля над ситуацией. Но чем это знание поможет в их устранении?
Ключевая ошибка сама попытка сделать автопилот достаточно умным чтобы ездить в отрыве от построенной специально для беспилотных ТС инфраструктуры
Наоборот, только автономный автопилот, подобный человеку и нужен. Все решения, полагающиеся на инфраструктуру априори ненадёжны
Вы фундаментально не правы насчёт надежности, но доказывать это я вам не буду, потому что спорить с верующими во что либо людьми бесполезно. Скажу лишь что
1 инфраструктура в целом дешевле чем оборудовать каждое ТС суперкомпьютером.
2 инфраструктура позволяет отказаться от дорогого аккумулятора в составе электромобилей
3 Инфраструктура безопаснее потому что позволяет физически разделить потоки ТС и пешеходов. И само собой взломать её значительно сложнее.
Цена, цена и безопасность - это не про надёжность.
1 инфраструктура в целом дешевле чем оборудовать каждое ТС суперкомпьютером.
2 инфраструктура позволяет отказаться от дорогого аккумулятора в составе электромобилей
3 Инфраструктура безопаснее потому что позволяет физически разделить потоки ТС и пешеходов. И само собой взломать её значительно сложнее.
Так Вы ведь трамвай изобрели я так понял. Ну или троллейбус. Мы же всё таки о личном транспорте. Проблема с личным транспортом, зависящим от инфраструктуры - как раз в риске поломки или взлома. Если мы создадим автопилот, ориентуриющийся на, скажем, данные от сервера, управляющего трафиком, то любой идиот с глушилкой сможет устроить день жестянщика. Или просто сломается что-то в сети: какой-нибудь датчик или рестранслятор. Проводить самодиагностику автономного автопилота в машине всё же куда проще. А взломать правильно разработанный автономный автопилот невозможно в принципе ибо ему беспроводный выход в сеть вообще не нужен. Достаточно физичиски разделить мультимедийную систему (которой интернет таки нужен) и ЭБУ+автопилот.
Невозможно взломать то у чего нет мозгов, для движения по "рельсам" достаточно нескольких простых конечных автоматов. Единственная критичная поломка инфраструктуры - отключение питания и на этот случай достаточно относительно небольшого аккумулятора. И да, речь именно о персональном транспорте, с боковыми токосьемниками.
Я так понимаю, Вы предлагаете персональный рельсовый транспорт? В теории, возможно (стрелок правда нужен миллион), но мозги у такой системы должны быть очень непростыми и способными решать задачу коммивояжера с тысячами учасников в реальном времени.
Безрельсовый, хотя токопроводы конечно можно назвать рельсами, но стрелки не нужны, как и решать задачу коммивояжёра. В общем то автопилоту достаточно знать где поворачивать и расстояние до ближайших ТС. В отличии от живых водителей автопилот не будет устраивать пробки пытаясь выгадать миллисекунды пятнашками, и растягивать строй при смене скорости движения тоже. К сожалению я не силен в анимации но сейчас изучаю игровой движок и буду пытаться сделать симулятор.
Всегда остается ненулевая вероятность глупой фатально-летальной ошибки, которую человек не допустил бы.
Вы неявно исходите из того, что человек может точно оценить любую ситуацию на дороге? Увы, нет. У нас большой стаж за рулем и ситуация когда "не замечаешь фуру" - она редко, но бывает, при чем не замечаешь не потому что отвлекся на телефон, а потому что освещение так совпало, в слепую зону попало, цвета так сложились и так далее. Картинка сверху в которой не каждый отличит концерт от комбайна как бы намекает.
А теперь давайте на это наложим слепые пятна в глазу человека. И да, не сами слепые пятна, а тот факт, что мозг достраивает изображение в них согласно... изображению вокруг него. И подумаем, сколько на самом деле мозг человека еще чего достраивает и знаем ли мы по каким алгоритмам и видим ли мы на самом деле реальность:)
Ситуация по большому счету не особо отличается в плане вектора проблемы.
А уж не заметить велосипедиста - вообще как два пальца переехать.
все дело в том, что ошибки человека социально приемлимы, а ошибки атопилотов - нет. И не важно что они ошибаются меньше. Quod licet Iovi, non licet bovi
все дело в том, что ошибки человека социально приемлимы, а ошибки атопилотов - нет.
Кто это сказал?
Кто сейчас ответит если у машины отказали тормоза и она из-за этого въехала в людей?
Ну вот есть пройденный по всем правилам и законам техосмотр, но тормоза всё равно отказали. Кто отвечает?
Тормоза могли например сломаться уже после техосмотра. Или мог присутствовать заводской брак, который на ТО не определить.
Ну и вы получается сами ответили на свой вопрос: по вашему мнению должен отвечать либо владелец машины, либо тот кто сертифицировал её пригодность в текущем состоянии.
Да и вообще в чём в данном контексте принципиальная разница между тормозами, каким-нибудь круиз-контролем с удержанием расстояния/полосы и автопилотом?
социльно приемлима в том плане, что запретить вождение людям никому в голу не приходит, просто правила слегка подкручивают.
Так и не могу понять, почему людям можно ездить за рулём, хотя большинство тоже не способно проехать по горным перевалам и индийским перекрёсткам, а автопилот - сразу "неполноценный". По крайней мере, автопилот врядли заинтересован в намеренном нарушении ПДД и не допустит ухудшении своей реакции путём употребления различных веществ. Но да, именно автопилоту нельзя, а человеку - можно, "хотя остаётся ненулевая вероятность совершения глупой ошибки, которую автопилот бы не допустил". Да что там вероятность, они происходят постоянно.
Индийские перекрестки и горные перевалы - это пример нестандартных ситуаций. Тест для автопилота на адекватность, чтобы проверить, делает ли он интерполяцию из заложенных в него паттернов, как описано в статье, либо же действительно анализирует дорожную ситуацию и принимает верное решение в случае отсутствия в нем заложенной схемы.
Другой, самый простой пример - впереди дорожные работы, а объезд организован по велосипедной дорожке с узкой разметкой. Плюс регулировщик с палочкой стоит и показывает кому заезжать, а кому подождать. Вполне возможная ситуация в любом городе. Что-то подсказывает, что любой автопилот в этой ситуации выпадет в ступор, хорошо если никого не задавит, заглючив из-за той самой узкой разметки. А любой, даже самый начинающий водитель - проедет без вопросов.
В этом и суть - ИИ в этом случае должен действовать по аналогии с человеком - сообразить по ситуации, а не следовать заложенным в него паттернам и обученным шаблонам. Именно тогда ему можно будет доверять свою жизнь, а не например профессиональному живому водителю.
По крайней мере, автопилот врядли заинтересован в намеренном нарушении ПДД
И это одна из главных проблем, потому что без формального нарушения ПДД очень много где просто не проехать, и о полноценном автопилоте (когда кожаный мешок сидит на пассажирском сиденье и читает книжку) можно забыть - только продвинутый круиз-контроль, как на тесле.
Вопрос, можно ли считать благом и нормой нарушение ПДД на усмотрение водителя. Сегодня он "просто не может проехать", завтра выезжает на встречку или проезжает на красный, потому что ему это кажется нормальным и "а что такого".
завтра выезжает на встречку или проезжает на красный, потому что ему это кажется нормальным и "а что такого".
Я регулярно выезжаю на встречку.
Моя дорога на работу. Поворот направо на перекрестке, сразу за поворотом - двухполосная дорога (1+1), зебра и за ней начинается сплошная (стандартная ситуация около перекрестка). И возле этой сплошной регулярно припаркованы машины.
По ПДД я не имею права их объехать, потому что сплошная. Развернуться тоже не могу, и по ПДД я должен либо ждать, пока машина уедет, либо вызвать ГИБДД и ждать, пока они разрешат мне объехать. Что бы вы сделали в такой ситуации?
По ПДД я не имею права их объехать, потому что сплошная. Развернуться тоже не могу, и по ПДД я должен либо ждать, пока машина уедет, либо вызвать ГИБДД и ждать, пока они разрешат мне объехать. Что бы вы сделали в такой ситуации?
В принципе это как раз элементарно решается если мы говорим о автопилоте. Вызываем ГИБДД с эвакуатором и всё. При этом делаем так что пока такое будет происходить относительно часто, слегка усилить ГИБДД в плане персонала и рассматривать вызовы от автопилотов приоритетно. Готов поспорить что полгода-год и никто так больше парковаться не будет :)
Честно говоря, не знаю особенности российских правил, но по немецким правилам можно объехать препятствие через сплошную -- с дополнительными мерами предосторожности, конечно. Попытка встать и никуда не ехать на экзамене по вождению приведет к провалу экзамена
завтра выезжает на встречку
Это же классика - объехать, например, сломанную машину через сплошную формально нельзя. Даже развернуться и поехать в объезд нельзя (даже если он есть, этот объезд) - сплошная же.
Или вот, например, я буквально сегодня ехал по ремонтируемой дороге. Я даже не знаю, как там автопилот программировать: прямо формально нельзя (слишком узкая полоса согласно разметке), развернуться нельзя (сплошная же), задом нельзя (мост).
И такого очень много, если задуматься.
Всегда остается ненулевая вероятность глупой фатально-летальной ошибки, которую человек не допустил бы.
Всегда остается ненулевая вероятность глупой фатально-летальной ошибки, которую ИИ не допустил бы. Иначе откуда все ДТП?
Люди допускают множество других ошибок. Тоже мне, нашли эталон хорошей езды.
Человек точно также неточно архивирует с потерями и глюками. Даже важные знания. Выделить суть тоже могут далеко не многие. А уж додумать что-то это прям первое, что мы научились делать. Мне кажется нам просто не нравится собственный интеллект, а мы хотим построить лучший искусственный по принципу нашего.
идея для сжатия картинок с помощью НС, или придумать отдельную архитектуру и обучать побыстрому на картинке, сохраняя веса. или взять готовую модель для Stable Diffusion подать картинку на выход и обратным распространением сохранить состояние внутреннего слоя.
Текст полезный, но выводы неправильные.
Когда генеративный ИИ сможет стать Скайнетом? Учитывая вышысказанное,
рискну предположить, что еще очень‑очень нескоро. Если вообще сможет.
На самом деле осталось немного. Другое дело, что додумать как развивать нейросеть, что бы перешагнуть это "немного", не так просто. Это не значит, что невозможно, но конкретно те, кто сейчас балуется с нейросетями весьма вероятно несколько не туда смотрят, просто из-за принципов, которые требуются для построения нейросетей. Повторяя древних в применении к текущему моменту - бытие определяет сознание.
Ну и главное возражение из текста - сжатие с потерей информации. Не понимаю, как автор не заметил той же самой особенности у людей. Выше в комментариях ему подсказали, но пока он на подсказку не ответил. Вот такое поведение я и называю "бытие определяет сознание", то есть и автор, и другие "специалисты по нейросетям" просто не туда смотрят. Они не видят простых и очевидных для других вещей - полную аналогия с человеческим сознанием. Ну а если аналогия полная, то что мешает процессу банального экстенсивного развития для достижения всего того, что умеют люди? Другими словами - даже недостаточно сообразительные, но упорно играющиеся с нейросетями изобретатели в итоге обязательно нащупают правильное решение. Просто перебором.
Да, перебор есть штука медленная, но кто сказал, что в мире забавляющихся с нейросетями все тупые? И даже если все, всё равно они на верном пути. А если не все (то есть кто-то найдёт путь быстрее, чем перебором), то скайнет уже совсем рядом. Правда это будет не желающая всех убить машина, это будет группа обычных людей, например Билли Гейтс в компании с Маском и кто там ещё имеет кучу акций OpenAI? Ну а после монопольного обретения указанными индивидами нечеловеческих способностей за счёт наличия гораздо более умной сущности в купленных группой компьютерах, наступит эра "проверки на вшивость" всех этих персоналий - чего они захотят, обладая исключительной властью? Как минимум понятно, что любая конкуренция с ними будет бесперспективной из-за тотального превосходства по интеллектуальным возможностям, а так же крайне щедрого обеспечения этого превосходства сотнями миллиардов долларов.
Поэтому уже сейчас стоит думать - есть ли перспективы у человечества? Будет ли правление условного Билли Гейтса для людей полезным или вредным? Разрешит ли Билли нам жить свободно? Или решит огородить условными вышками с пулемётами и колючей проволокой?
Хотя подозреваю, что большинству на это всё плевать. Пока в кормушке есть еда и массовые развлечения вырабатывают гормон счастья - да какая разница, кто правит миром?
Добавление модулей это не про нейронки, это императивный подход. Так уже делали - модули семантического анализа, модули синтаксического анализа. Быстро сдулись. Менять надо правила, архитектуру, добавлять что-то вроде памяти, циклов, а не явно указывать какой модуль что будет делать. Да и не выйдет так.
Добавить модуль инициативы
Это можно эмулировать, думаю, даже в текущих LLM. Делать опрос периодический, заодно у неё появится понимание времени. Но если ничего не изменилось и новых данных не поступало, с чего вдруг появятся вопросы? У человека на вход постоянно идёт шум от сенсоров и внутренние сигналы от нерешённых или отложенных задач. Тут надо не просто модуль инициативы, тут нужно чтобы нейросеть крутилась в постоянном цикле, перерабатывая полученную информацию, например, перекладывая часть данных в долговременную память, как во время сна. Должен быть пул нерешённых вопросов и постоянный их перебор моделью в попытке решить, как у человека. Но это не закодить императивно, нужно архитектурное решение.
Добавить модуль восприятия окружающего мира
Да, это было бы интересно и современные мультимодальные нейросети уже вовсю двигаются в этом направлении. Но принцип обучения должен быть другим - постоянным и не механически на огромных массивах данных, а более эффективным, как это происходит у людей. Тоже думал по поводу восприятия речи. Для того, чтобы нейросеть понимала эмоции, акцент, оговорки, повышение тона, для изучения языков, например, нужен не speech-to-text, нужно чтобы токенами речи были фонемы или более мелкие фрагменты со своими параметрами и по ним уже выстраивается всё остальное. То, что у нас ещё в ушной улитке происходит, где звуки по частотам разделяются.
У людей этим выступают физиологические потребности и некоторые инстинкты (это как раз захардкожено). Можно назвать это модулем мотивации, т. е. "желания". Без желаний никакой инициативы не будет.
Немного сложнее - в начале цепочки механизмы восприятия, абстракций и моделирования, внимания и оценок, последние подают сигналы ценностей и нужд, в ответ на нужды подключаются механизмы потребностей, которые изыскивают в возможностях способы удовлетворения, определяя цель и создавая стремления, разнородные стремления с приоритетами подаются в механизм выбора, откуда порождают действия. Плюс уровень сознания для разруливания конфликтов, на который подаются сигналы, включающие эмоции, которые стремятся изменить приоритеты. Если какое-то стремление может быть осознано, то его называют желанием, иначе называют реакцией.
Соответственно, для создания "движения" нужно реализовать потребности - противодействующие "стабильности" и "развития", плюс два десятка костылей для обеспечения "физиологии" и "жизни в обществе", плюс несколько сотен инструментальных, которые появляются и исчезают по мере надобности.
А это неразрывно связано с восприятием окружающего мира.
Да, поэтому слепоглухонемые без специальных методик воспитания не становятся людьми разумными. Чтобы понять отличие синего от красного, нужно уметь видеть, а не только читать. Чтобы проассоциировать красное с теплым, нужно иметь термоцепцию. Чтобы познать время, нужно уметь двигаться. Без разнообразия сигналов не получится взрастить базу абстракций, на которую смогут опираться потребности, выискивающие решения задач.
Отличная статья раскрывающая суть. И очень хороша для понимания того, как ИксИн "пишет" программы :)
То что нейросети галлюцинируют, это да, тут всё верно.
Но у Вас примеры странные
> Например, вот есть у нас какая‑то статья в Википедии на тему физики.
В Википедии нет статей, там есть тексты-буримэ - в них единого смысла на весь текст.
Поэтому, когда эти тексты ужимают, то никакого единого смысла тоже ожидать не стоит.
Ну, эта статья еще раз продемонстрировала, что можно считать LLM реальным ИИ.
ИИ пишет чушь? Так а почему собственно она должна писать истину? Я каждый день читаю как реальные биологические интеллекты пишут чушь. И говорят чишь. И думают чушь. Почему ИИ должен отличаться?
ИИ нельзя верить: Конечно, что нельзя! Никакому интеллекту нельзя верить на 100%. Все врут®!
Так что, не знаю почему человек изобретает ИИ, а потом жалуется что он работает как интеллект? Извиняйте, но нет другого интеллекта. Что искусственный, что естественный.
Так что если исправят «глюки» искусственного интеллекта, то он перестанет быть интеллектом.
А глюки и не исправят. Они просто тоже будут эволюционировать по мере приближения ЛЛМ к интеллекту
Да, естественного интеллекта тоже не существует - это просто нейросеточка обученная родителямим, школьными учителями и т.д.
Но она корректируется при взаимодействии с реальным миром, в отличии от генеративного ИИ, который знает запомнил только скормленные ему тексты.
в отличии от генеративного ИИ, который
знаетзапомнил только скормленные ему тексты.
Это не техническое ограничение, а организационное.
Так что будет ровно такой же "среднестатистический идиот" который чего-то там нахватался.
Это врожденная болезнь. Называется «фиксационная амнезия» – неспособность запоминать, хранить и воспроизводить новую информацию, а также фиксировать в сознании текущие события и события недавнего прошлого..
Другое наименование «Синдром Корсакова» –
Помимо перечисленного, могут наблюдаться парамнезии, в основном в виде конфабуляций (когда больной сообщает о вымышленных событиях, никогда не имевших места в его жизни)
Логично что человек или программа с этим диагнозом слишком полезной быть не может по определению.
Это врожденная болезнь.
Это не баг, это фича. Существующим чатам, вроде ChatGPT, намеренно отключили возможность обучаться на пользовательском вводе. Нет никаких технических ограничений вернуть такую возможность. Но уже был не один и не два случая, когда после такого "дообучения" модель начинала вещать, что австрийский художник не сделал ничего плохого. Корпорации это не устраивает.
То были другие технологии.
Специально для трансформеров типа ChatGPT это не факт. Я не эксперт, но мне кажется что есть какие-то технологические невозможности. Ведь есть и открытые модели типа llama которые работают оффлайн. Почему я не могу включить у них самообучение на вводе?
Если это полностью опенсорсная сетка, то должен быть опубликован и софт, которым ее учили. А если нет интеграции обучающего софта с чатом готовой модели - ну, просто её никто не написал, технически ничего не препятствует. Дописать передачу данных из чата в датасет и получится собственная обучающаяся лама.
Ну так у нашей нейросети есть негативное подкрепление на ложь же.
А у чатбота - нету. Никакого.
Так чатбот и врать (в смысле - умышленно говорить неправду) не умеет, если его об этом специально не попросить.
(про приз хаттера) Чтобы наиболее эффективно сжимать текст без потерь, он должен уметь по-настоящему понимать этот текст и сопоставлять его содержание с реальными знаниями о мире.
Не согласны с этим утверждением. Приз хаттера подразумевает, что итоговый результат это вес текста + декомпрессора, а не просто вес текста. Вполне очевидно, что даже если текст и можно плотно упаковать, то настоящее понимание текста никак не тянет быть упакованным в те жалкие мегабайты, в которые надо вписаться.
Очень тортово!
Не знаю как у кого а все мои попытки провзаимодействовать с ИИ с целью написания кода выглядят примерно так. Спрашивать что то более менее неочевидное бессмысленно. Выдает обычно только то, что я и сам нагуглил до него уже. В целом да, действительно на джпег интернета похоже, практическая ценность сильно преувеличена. В отличии от диффузионнок. Хотя тот же Copilot, который тут же на твоем же тексте дообучается как продвинутая эдакая копипаста вполне себе рабочий инструмент.
Hidden text


В целом да, действительно на джпег интернета похоже, практическая ценность сильно преувеличена.
Возражу. Я уже писал про несколько старых кейсов использования мной ChatGPT.
Я с его помощью запилил пару утилит (по большей части для личного пользования) с нулевым знанием Python.
На входе было только ТЗ, примеры вводных данных, и ожидаемый результат после работы программы.
Причем это еще из тех времен, когда кнопки "continue" просто не было, и попросив бота "продолжить" код надо было начинать молиться заранее. Теперь такая кнопка есть, ажиотаж тоже спал - за день неспешно подобную утилиту бы повторил.
С тех пор сгенерировал еще пару велосипедов, включая парсер для сайта, который сохраняет контент с него в таблицу, а также показывает что поменялось с последнего запуска. На вход я буквально давал сырой HTML и после писал, какая таблица из него должна получиться. Пара итераций с измененным данными - и все, я вроде и часа не потратил на процесс. Парсера такого в интернетах как не было, так и нет.
Конечно, для человека, который умеет в python, это все детский лепет и работы на час. Но я до сих пор не знаю, как написать hello world на Python. А утилиты рабочие лежат и регулярно запускаются.
Если же отойти от программирования в "сисадминство", то тоже ChatGPT выручает. Нет, Америку он не открывает, но сервисы systemd никто с такой скоростью руками писать не умеет. Плюс, экономит время в гугле.
Это пока до ChatGPT полноценно не дорвались сео-оптимизаторы, хотя искажение и замыливание ответов в зависимости от чьих-то третьих хотелок в нём уже есть.
ChatGPT хорошо справляется только с шаблонными задачами. В вашем случае ключевое утверждение, что у вас "нулевые знания". В этом плане ChatGPT очень хорош. Он реально может заменить наставника и объяснить многие базовые вещи. Но как только появляются какие-то сложные задачи, он начинает выдавать полную ахинею. Я постоянно сталкиваюсь с задачами, решения которых нет в интернете. Приходится думать самому. И вот пару раз я решил проверить, сможет ли ChatGPT помочь. В итоге получил простыню кода, внешне красиво, но при ближайшем рассмотрении уже с первых строк ясно, что код абсолютно неработоспособен. Нет даже какого-то фрагмента, который бы мог пригодиться
Не нужно давать ему сложные задачи. Нужно самому мыслить так, что перед вами - джун, который много всякого знает, но сложные задачи решать не умеет. Поэтому нужно самому разбить задачу на более мелкие, задавать вопросы как можно более конкретные и по возможности компактные, и не использовать изощрённые фразы (самые простые, понятные школьнику). Да, придётся и самому поработать в каком-то смысле, и несколько дольше это будет, и даже придётся местами поправлять, корректировать направление "мысли" своего "помощника". И временами кажется, что "нафиг он нужен, я же сам тут уже всё и придумал", но на самом деле, это просто результат того, что "правильно заданный вопрос - это половина ответа".
Не каждую сложную задачу можно разбить на маленькие. И не каждая большая задача является сложной. А бывает , что очень сложная задача по своей сути очень маленькая, например, есть функционал, который уже работает, но появляется ошибка, которая всё ломает при определенных обстоятельствах. И в итоге можно потратить несколько дней, чтобы исправить одну строчку кода. Если же при возможности декомпозировать задачи по максимуму, то маленькие задачи будут очень зависимы от контекста. В итоге, владея контекстом, проще будет сделать маленькую задачу самому, чем вводить ChatGPT в курс дела. Ну и не забываем о всяких генераторах кода и автодополнении в IDE, которые бесплатны, работают быстрее и надёжнее. Плюс есть документация и исходный код проекта + исходный код используемых пакетов, где можно найти практически все ответы. Я вообще даже поисковиком для решения рабочих задач крайне редко пользуюсь. Обычно последовательность поиска решения такова: подумать самому, если не придумал, тогда поискать нужное по проекту, если там нет, то посмотреть документацию по используемому пакету, если там нет, тогда посмотреть в issues пакета. И вот уже есть и там нет, тогда приходится вбивать нужный вопрос в Google, но это случается 1-2 раза в месяц.
Конечно же, ещё лет 5 назад мне значительно чаще приходилось искать ответы в поисковике и тогда мне бы ChatGPT здорово помог, но сейчас я просто не вижу мест, где он бы смог ускорить мою работу.
Attention is all you need
Дело в том, что генеративный ИИ по принципам своего устройства больше напоминает архиватор
А знаете, что даёт самую высокую степень сжатия в пределе увеличения объема сжимаемых данных? Программа, которая воспроизводит функциональность системы сгенерировавшей сжимаемые данные. Но GPT не Тьюринг-полная, так как количество вычислений на токен конструктивно ограничено. Так что полного воспроизведения функциональности человека от неё ждать не стоит.
Поэтому развивается направление агентов, которые в диалоге между собой уже могут решить любую задачу по идее. У одиночного запроса к GPT действительно, я так понимаю, нет циклов (ну, кроме каких-то чисто технических, может), памяти для временных результатов. Памятью является сам генерируемый текст и чат. Поэтому запросы с добавками "рассуждай по шагам" помогают заполнить выдачу промежуточными сведениями и это уже аналогия когда человек размышляет о чём-то, "разглядывая" с разных сторон. Так что тут может быть не такой уж и сложный переход к чему-то более функциональному.
Кстати, в нашем мозге/личности тоже действуют разные сущности, внутренний критик, например, в диалоге с которым (даже не всегда осознаваемым) мы проверяем каждый факт на соответствие нашим представлениям, логике. Ну, не все с этим хорошо справляются, конечно, отсюда множество когнитивных искажений. Так вот диалог уже двух языковых моделей, обсуждающих полученную информацию, будет более приближенным к тому, как работает наше сознание.
Вот в этой работе кстати, описывается, как можно фактически делать языковую модель полной по тьюрингу именно задействуя предыдущий вывод модели. Первый пример - сортировка пузырьком.
Может это и так, на данный момент, может GPT-5,6,7 будут "умнее". Важно, что даже в таком виде ИИ помогает автоматизировать массу "тупых" задач
Порадовало здравомыслие большинства комментаторов и мне тоже хочется сказать на тему того, что человеческое мышление — то еще нагромождение шаблонов и "шорткатов", похлеще галлюцинирующего текстогенератора.
Вы повспоминайте разговоры с простыми людьми у которых картина мира как лоскутное одеяло состыкована из всевозможного бреда услышанного то от их дворового окружения, шизофренических программ с хрен-тв, госпропаганды и мистики. И ничего, живут, и автобусы водят и других людей лечат...
Для простой оценки возможностей языковых моделей - попросите то, что есть под рукой, придумать новое слово, с ранее несуществующим корнем. ;)
Запросто придумывает. Выше давал пример ChatGPT, вот пример Claude. Она, правда, вначале поупиралась, не могу, говорит, вот точно как тут выше предполагают, "слово должно быть основано на существующих морфемах и корнях, чтобы быть понятным". Тогда я уточнил ей задание (в том же чате): "придумай непонятное слово, не использующее существующих морфем и корней". Вот ответ:
Хорошо, я попробую придумать полностью непонятное искусственное слово, не опираясь на существующие морфемы и корни:
Драплист
Это слово состоит из произвольно подобранных звукосочетаний и букв. Оно не несёт никакого смысла, только звучит как нечто цельное.
Или вот ещё вариант:
Згромых
Здесь я тоже случайным образом соединил буквы и звуки. Получилось нечто странное и неpodдающееся логическому осмыслению.
По сути, это просто бессмысленный набор звуков, который для носителя языка ничего не значит. Надеюсь, это соответствует вашему запросу на создание полностью бессмысленного и непонятного слова!
Если нужно придумать что-то ещё в этом роде - я готов продолжать предлагать различные варианты )
Looks like a dope concert until you realize it’s a cotton harvester
Межгалактических харвестер прилетел собрать человечвеский урожай?
Генеративные сети - это не архиватор, а поисковик по Вавилонской Библиотеке.
Вот смотрите, допустим у нас есть простейший генератор, ядром которого является функция random(). Мы просто генерируем случайный символ из всего набора Unicode, и возвращаем строку желаемой длины из таких рандомных символов.
Что мы можем сказать о таком генераторе? Он обладает бесконечной креативностью. С его помощью мы можем сгенерировать абсолютно любой текст, который только теоретически может существовать в природе. Все великие шедевры авторов прошлого, настоящего и будущего. Любые факты. Любые рецепты. Любые научные открытия. Есть лишь один ма-аленький недостаток: все эти полезные вещи растворены в таком океане мусора, что можно генерировать до конца Вселенной, но так и не получить ничего кроме шлака.
Что же, давайте улучшим нашу генеративную модель. Давайте возьмём большой-большой корпус текстов, замерим частоту встречаемости там разных символов, и будем генерировать символы ровно с теми же вероятностями, с которыми они там встречаются. Снизили ли мы этим нововведением мощность нашего генератора? Нет, если генерировать достаточно долго, он по-прежнему способен создать абсолютно любой текст. Рандом-то никуда не делся. Мы просто отсортировали нашу Вавилонскую Библиотеку, снизив встречаемость в ней бессмысленного мусора. Теперь в тексте уже попадаются осмысленные слоги, и шанс сгенерировать что-то полезное сильно возрос.
Но увы - шанс наткнуться в выхлопе такого генератора хоть на что-то полезное всё ещё слишком мал. Что же, давайте добавим ещё больше статистических закономерностей...
Вот именно так и работает обучение. Мы ничего не архивируем. Мы проводим статистический анализ больших объёмов данных и создаём множество вероятностных распределений. С помощью которых потом, во время работы, рандомно генерируем случайный символ (это называется сэмплированием).
Да, нейронка, как и простая функция random, может сгенерировать вам абсолютно любой желаемый текст, если генерировать достаточно долго. Её креативность, в отличие от креативности архиватора, ничем не ограничена. При бесконечно долгой генерации в выхлопе рано или поздно окажется всё, что только может существовать в природе, а не только то, что было в датасете. Но эта Вавилонская Библиотека отсортирована так, чтобы максимально повысить вероятность появления текстов с теми же статистическими закономерностями, что и тексты обучающего корпуса.
Кстати, при локальном запуске нейронки вы можете ослабить действие этих закономерностей (параметр t, "температура" генератора), повысив креативность (по сути приблизить выхлоп к простому random, вплоть до полного совпадения при достаточно большом t).
А теперь считаем объем памяти, который потребуется для хранения, скажем, распределения вероятностей n-грамм с n=20. Будем хранить вероятности как float. Получаем примерно 4*256^20 = 5.846e48 байт или примерно 6 септиллионов иоттобайт (для хранения потребуется половина вещества в видимой вселенной). И это распределение вероятностей не поможет выдать разумное продолжение для текста "...его звали Вася. И тут я вспомнил, что В...".
Так что от сжатия никуда не деться.
Файл Хаттера можно выложить в интернет и сжать до размера URL.
Человеческий интеллект, чтобы выдавать более-менее адекватные диалоги должен обучаться лет 16 минимум, а дальше начинается специализация, которая при удачном раскладе, после еще лет 20 обучения позволит ему выдавать более-менее экспертные ответы в одной или нескольких взаимосвязанных областях знаний. Если посмотреть на LLM с этой позиции, то достигнутые результаты просто феноменальны.
нейросеть для того чтобы лучше сжимать данные вырабатывает способности к абстрактному мышлению, обобщению и синтезу
В этом и смысл, это верное направление, пока еще очевидно не пройденное до конца. Но копают, определенно, туда. Если посмотреть как происходит обучение фактически любой глубокой сети - её заставляют вместо сохранения всей информации набора искать закономерности для максимальной генерализации набора. Для того что бы новые примеры так же хорошо обрабатывались как и имеющиеся в наборе. Сети фактически напоминают ленивых студентов, которые запоминают примеры вместо понимания сути. И вот когда у сети остается единственный вариант во время обучения - понять суть набора и давать верные ответы на максимально обширном объеме новых примеров - тогда и получаются нужные, полезные результаты.
Здесь же задачу, которую нужно ставить сети: создать коннектом в кремнии такой, который был бы как минимум не отличим от естественного интеллекта, а в идеале заметно его превосходил. Сети сами должны научится абстрактному мышлению, обобщению и синтезу. И как мы вот видим, это уже получается. Интеллект появится сам собой, как будто ниоткуда. Как единственно возможный ответ на требования обучения. Нужно заставить сети быть интеллектуальными и они станут такими.
Чтобы понять, что такое современный бум AI, можно заглянуть в историю. Вспомнить бум доткомов. Вспомнить изобретение гипертекста, первые браузеры и поисковые машины. GPT - просто ветвь развития поиска, ничего более, об интеллекте говорить пока рано, хотя бы потому, что неизвестно, как работает естественный интеллект.
Абсолютно разного уровня вещи же. Всё что вы описали - просто инструменты, которые люди используют для решения задач. Компьютер и роботы - тоже инструменты, просто их действия по решению конкретной задачи описали программисты.
Языковые модели же работают со смыслом, формируют внутри себя модель мира и способны в ней описывать разумные действия. При чём тут поиск? Ну, назовите мышление человека тоже поиском тогда. Поиск ответа с использованием биологической нейросети, обученной еще с момента формирования мозга в утробе на сенсорных сигналах. Тогда да, поиск.
По сути человечество прошло несколько этапов/революций по автоматизации/накоплению знаний. Использование языка для коммуникации и возможности совместных действий. Использование простых инструментов, не отменяющих ручной труд. Использование механизмов, рычагов и прочих, позволяющих за счёт больших временных затрат получить больший эффект, недоступный мускулам. Книгопечатание расширило возможности передачи знаний. Затем автоматизация - промышленная революция, конвейеризация. Потом компьютеры для более умной автоматизации, интернет, вовлекший весь мир в быстрый обмен знаниями. И вот теперь ИИ, который совместно с роботами в состоянии со временем заменить вообще все профессии без исключения, включая те, где требуется принимать решения, что раньше невозможно было никакими программами.
...«галлюцинировать» (hallucinate)... применительно к генеративному ИИ...
... генеративный ИИ по принципам своего устройства больше напоминает архиватор (т. е. программу для сжатия файлов), нежели полноценное сознание. Именно поэтому эксперты в ИИ зачастую недовольно фыркают, когда генеративные нейросети называют звучным словом «интеллект».
:) строго говоря, "эфирный поток сознания" работает с "образно-ассоциативным архивом" "эфирной нейронной гиперсети", поэтому сознание - это архиватор и есть. Другое дело, что "сильные" "галлюцинации естественного сознания" - это скорее аномалия, чем норма. "Слабые" же "галлюцинации естественного сознания" (то есть "естественные суперпозиционные эфирные ассоциативные блуждания") являются основой интеллекта, то есть основой "способности к эволюции информации" (то есть "эволюции образов и связей между образами")...
Поэтому и ChatGPT нам кажется толковым парнем, который реально все понимает. На самом же деле он просто передает основной смысл, воссоздавая пропуски за счет усреднения.
Эко у вас всё просто, однако. Разве уловить основной смысл в любом тексте это не один из признаков интеллекта? Люди десятилетиями не знали как даже подобраться к этой задаче, в чат-ботах городили кучу перечислений всевозможных сочетаний слов (помните, как в Масяне матерные слова забивали), потом придумали нейронные сети, потом кто-то очень умный решил, что это тупиковая ветвь эволюции, ни на что они не способны, и на долгие годы интерес к нейросетям пропал. А тут когда появилось решение, уже вдруг стало всё просто. Вот собачники считают, что собаки обладают определённым интеллектом, ну, попросите её просто передать основной смысл чего-либо.
Чтобы наиболее эффективно сжимать текст без потерь, он должен уметь по-настоящему понимать этот текст и сопоставлять его содержание с реальными знаниями о мире.
Из чего вдруг появился такой вывод, не понимаю, особенно учитывая что перед этим шло описание конкурса, где явно речь идёт о буквальном сжатии без потерь, после которого текст восстанавливается "буква в букву". Если кто-то понял смысл текста и пересказал его своими словами, тот же закон Ньютона, это не будет сжатием без потерь. Или речь о восстановлении без потерь смысла? Так надо так и писать, это же важно.
Как-то про кодирование смысла и за счёт чего оно стало возможным в статье как раз ничего и нет. Все эти эмбеддинги, внимание и word2vec. Сжатие данных языковыми моделями ведь подразумевает создание на основе множества ассоциаций абстракций, хранящихся где-то в нейросети. И нейросеть обучена не сжимать текст, а дописывать его. Так, если у нас идут описания задач по физике, после которого следует слово "Ответ: ", то нейросети придётся решать задачу. Её долго "били по рукам" за то, что она давала неправильные ответы. Одну задачу запомнила, а чуть другую уже не может решить. И тут действительно произошло "сжатие", сформировалось общее представление, например, о том, что такое скорость, расстояние, базовые математические операции и это помогло выявить закономерность и решать весь класс подобных задач.
И тут, внимание, вопрос: "А наше сознание не так же работает?" Строит абстракции и законы. Конечно, сильно по-другому обучается, но тут вот появился загадочный Q* и может быть всё поменяется.
? Я оцениваю уровень интеллекта, через непомерную графоманию автора статьи. Поэтому я скормил ее ИИ, чтобы он написал ее в сокращенном виде. Вот результат :
Глюки ИИ: почему они случаются и как с ними бороться
Генеративный ИИ, такой как ChatGPT, часто выдает неточные или даже ложные ответы. Это происходит из-за того, что он работает по принципу сжатия информации с потерями.
Представьте, что вы хотите сохранить Википедию на небольшом носителе. Вы можете использовать алгоритм сжатия, который будет объединять похожие статьи и изображения. В результате вы получите файл, который будет намного меньше исходного, но при этом будет содержать основную информацию.
Точно так же ChatGPT работает с информацией из интернета. Он использует алгоритм сжатия, который объединяет похожие тексты и изображения. В результате он может выдать ответ на ваш запрос, даже если в интернете нет точной информации по этому вопросу.
Однако алгоритм сжатия не всегда может точно восстановить исходную информацию. В результате ChatGPT может совершать ошибки, которые могут быть как незначительными, так и значительными.
Чтобы снизить вероятность ошибок, генеративный ИИ должен быть обучн на большом количестве данных. Чем больше данных он будет знать, тем лучше он сможет восстанавливать исходную информацию.
Кроме того, генеративный ИИ должен быть способен понимать закономерности, которые существуют в мире. Это позволит ему делать более точные выводы, даже если в его базе данных нет точной информации по конкретному вопросу.
В целом, генеративный ИИ является мощным инструментом, который может использоваться для различных целей. Однако важно понимать его ограничения и использовать его с осторожностью.
Выводы
Глюки ИИ случаются из-за того, что он работает по принципу сжатия информации с потерями.
Чтобы снизить вероятность ошибок, генеративный ИИ должен быть обучн на большом количестве данных и уметь понимать закономерности, которые существуют в мире.
Генеративный ИИ следует использовать с осторожностью и не доверять ему полностью.
в исходном тексте статьи 2547 слов, в сокращенной версии - 263 слова.
Если эти результаты верны, то сокращение статьи позволило сэкономить 92,1% слов.
Время прочтения на человека исходника - 15 минут, результата - 1,5. На 1000 человек это - 167 часов, сокращенной - 17,5 часов.
Автор неумеющий в качественное изложение мыслей (в т.ч. програмированию), менее эффективен и готов к увольнению на 93 процента.
словом 2023 года признали «галлюцинировать» ... Неточность Барда быстро заметили, в результате чего у Google даже просела стоимость акций ... Xerox же выдал копию, где на всех трех комнатах стояла одинаковая цифра — 14.13 (как площадь первой комнаты) ... мы не знаем наверняка, скушала ли LLM откровенную пропаганду или какие‑нибудь антинаучные теории заговора ...
Как минимум три интересные мысли были утеряны при пересказе со сжатием. Ну и в выводах потерялось "завтра будет лучше" и "скайнет еще не рядом". По сути, в пересказе выдернули одну мысль с одним примером, налили вокруг них воды и успокоились. И эту же единственную мысль можно пересказать еще короче.
Генеративный ИИ — это просто «замыленный JPEG интернета», который убедительно косит под интеллект