Как стать автором
Обновить
17
0

Пользователь

Я не приводил формул, я вам объяснил простым языком. Вы наверное перепутали с вероятностью и пояснил вопрос для человека далекого от математики или забывшего школьный курс.

Забавная отмазка. Но не сработает т.к. вы "объяснили" это все не "упрощенно", а просто-напросто совершенно неправильно.

Корреляция простыми словами

Вся эта табличка - чушь. Для разных задач будет совершенно по-разному. Есть задачи для которых 0.1 - это отличная корреляция, повод написать статью, есть задачи для которых 0.9 - это очень мало. Если бы вы понимали математический смысл формулы для корреляции, вы бы это знали.

При чем тут это? Вся наша генетика собственно гены

Снова ошибаетесь. Опять же, не вижу смысла объяснять базовые вещи, читайте книги.

Нужно в модель добавлять данные по питанию и будет точнее результат

Конечно будет. Только вот куда уж точнее, ведь вы начали с того что заявили, что модель уже предсказывает рост с точностью в 2 сантиметра, только по генам. Из-за этого очевидно неверного утверждения и весь сыр-бор. Давайте вы просто признаете что в этом утверждении вы сказанули чушь и мы прекратим этот бессмысленный разговор.

Ой-ой, вы, похоже гуманитарий. Возможно, вам рановато читать то, что вы читаете без должной естественно-научной базы, потому что пока что это приводит к тому, что вы все понимаете весьма превратно, как в статьях плохих журналистов когда они пишут о научных открытиях.

Например:

Больше 0, это вероятность угадать 0.5, а корреляция более 0 уже актуально.

Вы только что сказали математическую ерунду. Корреляция считается не так, и вовсе это не означает. Можете в качестве упражнения сами построить контрпример.

Наследуемость и есть генетические факторы. 

Снова мимо. Почитайте, например, для начала, хотя бы, "Она смеется как мать" Циммера, там в одной из первых глав он объясняет что такое наследуемость. Очень подробно, на множестве примеров, именно потому что многие понимают это число превратно.

Соответственно у детей генетика родителей. 

Опять мимо. Ребенок имеет миллиарды миллиардов последовательностей нуклеотидных пар которых нет у его родителей. Почитайте что-нибудь про генетику и про то, как ребенок формируется путем случайной рекомбинации хромосом обоих родителей.

Корреляция там 0.9 по всем факторам, от роста до IQ.

А еще они живут в одно время, предположительно в одной стране, у одних и тех же родителей, питаются примерно такой же едой и т.п. Т.е. двумя словами - делят среду. Чтобы вы поняли насколько влияет среда, учтите, что южнокорейцы, например, сейчас на 10 сантиметров выше северокорейцев.

При том, что, очевидно, генетически они еще не разошлись далеко друг от друга. Думаю, понятно, что никакая генетическая AI-модель не предсказала бы ничего подобного. А то, что у них получилась какая-то ненулевая корреляция когда они взяли очень однородную английскую среду - ну, я уже объяснил почему это совершенно нормально.

Открыл статью загуглив слова которые вы дали.

Вот она - https://academic.oup.com/genetics/article/210/2/477/5931053

Никаких "предсказывает с точностью два сантиметра" там нет. Там оценили корреляцию с моделью в 0.63. Много это или мало? Ну я могу например, построить модель просто по таким параметрам как пол, возраст и национальность и уже уверен добьюсь корреляции больше чем 0.5. Да, там написано что мол, "у большинства разность с предсказанной моделью отличается не более чем на 4 сантиметра в одну из сторон", но это вообще ничего не говорит. Я точно также могу сказать, что "у "большинства россиянок рожденных в 1992м году рост 165 сантиметров плюс-минус 4 сантиметра", и окажусь прав - можете сами загуглить статистику. Т.е. такую точность нам дает просто тот фактор что рост у людей одного пола, возраста и страны не так уж сильно отличается, никакого анализа ДНК не нужно.

По поводу "наследуемость 0.9" - вы же понимаете разницу между "наследуемость" и "определяется генетическими факторами"? Разница довольно существенная, но неочевидная для тех кто не знает, поэтому спрашиваю.

Вполне очевидно, что полный запрет абортов в частных клиниках в России - лишь дело времени, если, конечно, удачно брошенная табакерка не изменит ход истории.

Любой кто притворяется, что ему это не очевидно, и что это лишь "частная инициатива отдельных глав регионов" - просто-напросто лжец.

Ну да, ну да, обратный культ карго. Когда каннибал говорит "Другие тоже людоеды, только очень хорошо притворяются".

Или когда валяющийся на улице в куче собственного дерьма пьяный в умат алкаш орет "А кто сам хоть раз не пил, даже кефир? Назови хоть одного??".

Чет как-то дорого. В третьем рейхе были значительно более дешевые методы.

Берем 15-16-летних разнополых подростков:

  1. отправляем их в специальные рабочие лагеря на свежем воздухе для совместной работы

  2. по вечерам устраивать совместные мероприятия.

  3. взрослым, которые за этим присматривают, сказать глядеть сквозь пальцы на романы

  4. детям не рассказывать про контрацепцию и не продавать ее. Запретить аборты.

Гормоны сами сделают свое дело. Демографический бум того времени не помог рейху в войне, но после войны сильно пригодился восстанавливать страну.

И это во много раз дешевле чем давать квартиру каждой девушке. А тех кто откажется посылать детей в такие лагеря объявлять иноагентами, делов-то.

Например ИИ по генам определяет рост человека с точностью до 2 см.

Сильно сомневаюсь что, такое вообще возможно. Наш рост определяется кучей факторов среды, а не только генами. Можно ссылочку где вы об этом прочитали?

Про IQ даже говорить не буду - там столько факторов, что все разговоры о каких-то генах "повышенного интеллекта" на данный момент это просто кликбейт.

Нет. По-моему, ещё Сид Мейер вывел эмпирическое правило: в новой части 1/3 элементов геймплея оставить старыми, 1/3 поменять, 1/3 добавить новых. Тут это правило нарушается.

В хоте даже в 1.7.0 меньше трети объектов новые по сравнению с SOD.

Если вам кажется по-другому - вам кажется.

Все недостатки оригинального геймплея были в ХотА бережно сохранены:

Если вы не замечаете что что недостатки постепенно исправляются - это опять же, не замечаете только вы. Да, скорость изменений очень низкая, потому что коммюнити очень консервативное. Почти любые изменения принимают в штыки, мол, "нам так не привычно" или "это сломает старые карты". Я помню мегастенания игроков когда бесам повысили хп с 4 до 5 и пришлось откатывать назад, хотя казалось бы.

Кардинальную переработку магии чтобы сделать ее наконец балансной - не примут никогда. 90% скажут что за 20 лет привыкли к старой системе, а из тех кто хочет нового - у каждого, вот буквально - у каждого, есть свое собственное гениальное мнение как это должно быть сделано, а все что не по ихнему будет воспринято в штыки. Как собственно и у вас - у вас тоже есть "гениальные" идеи как все надо переделать, и переделку по-другому вы не воспримете.

Т.е. между вариантами "замедлиться, осмотреться и еще раз тщательно обдумать прежде чем гнать вовсю к потенциальной катастрофе" и "смерть" вы выбираете "смерть"? Забавно. Да, я слышал про другое когнитивное искажение - что, по какой-то причине при выборе вариантов "смерть" рассматривается как более благоприятный", чем, например "попасть в долги" или "оказаться беднее соседа". Но я не думал что "смерть" предпочтут варианту "подумать как следует".

Лол, психологические диагнозы по комментариям, сразу 2008-м пахнуло.

Да-да, все так, я считаю что потенциально разрушительные открытия надо исследовать максимально осторожно и это безусловно означает что я "агрессивный" и что у меня "боязнь темноты".

По поводу же того, почему меня интересует именно сценарий-0: потому что это наихудший возможный сценарий. Рассматривать в числе прочих наихудший сценарий - это совершенно стандартная практика для любого управленца. То что вы этого не понимаете и предпочитаете отмахнуться от него - это печально.

при виде банального абсолюного тупого Т9 способного дополнять слова вместо букв (и больше неспособного вообще не на что) 

Если вы видите современные модели LLM вот так - то "глупый школьник" здесь вы. "T9 для слов", как вы выразились, был бы неспособен определять объекты на картинке, описывая происходящее вплоть до эмоций героев ( в том числе на схематически нарисованных эскизах которых ранее не было в интернете). "T9 для слов" был бы неспособен выполнять задания вида "переведи этот текст на русский, вставляя время от времени намеки на то, что главному герою холодно, но не говоря это открыто".

Нет никаких сомнений что этим моделям еще далеко до AGI, но от T9 или "скрипта с элементами рандома" здесь уже тоже очень, очень далеко. Полагаю, кстати, по вашему тексту, что вы ни одну сколько-нибудь сложную ML-модель в жизни никогда не написали. В отличие от меня, кстати.

По поводу же "давайте откажемся от простых, понятных и абсолютно тупых алгоритмов и программ, осуществляющих банальную автоматизацию" - вы просто-напросто врете. Нигде я ничего подобного не говорил. Ничего не имею против автоматизации. Но LLMы опять же не являтся ни простыми, ни понятными. Нельзя называть "простой" и "понятной" программу, для которой ни один инженер в мире не может ни предсказать ее вывод, ни объяснить когда она выведет - почему она вывела именно это.

Да вот как-то уж так вышло что университеты, НИИ, редакции научных журналов и энциклопедий, включая википедию ( при всей ее неакадемичности), многие научно-познавательные сайты сплошь забиты людьми, чьи взгляды, в том числе, на происходящий треш, во многих вещах расходятся с взглядами "глубинного народа".

И что остается делать глубинному народу? Начать самим писать энциклопедии? Нет, тогда рухперт получится. Двигать науку? Не смешите. Остается только ныть о заговорах и о проклятых иноагентах, врагах народа и жидохохломасонах которые "всюду проникли и влияют"(с).

Можно узнать: а что такое "цитата в био"?

И так я последний людей больше нет, могли ли мы это предотвратить? НЕТ

Угу, угу.

"Настоящий самурай всегда выбирает из двух путей тот, который ведет к смерти".

Вот только человечество - не самурай, у него есть множество разных путей и вариантов. Безапелляционно утверждать что во всех этих развилках человечество все равно умрет, так что давайте сами устроим это, да побыстрей - это какой-то запредельный идиотизм. Может, вам дать телефон горячей линии по предотвращению самоубийств?

У вас очень плохо с иронией. И да я не стал разбирать ваш сценарий детально, потому что в этом нет ни малейшего смысла. Можно придумать тысячу самых разных сценариев, куда изобретательней вашего, но беспокоят меня совсем не они.

Меня беспокоит тот самый сценарий-0 - сценарий где ИИ тем или иным способом уничтожает человечество. И если вы хотите со мной спорить, то вам нужно не другие сценарии придумывать, а каким-то образом убедить меня что сценарий-0 не произойдет. Что если правительства или корпорации будут выбирать между прибылью и безопасностью человечества они выберут безопасность. Но на данный момент я вижу обратную картину. Возможно, еще рано, потому что нынешним LLM-моделям до AGI далеко, но меня тревожат именно логические ошибки связанные с этой темой. Например, тут есть альтернативно одаренные, которые на полном серьезе утверждают, что лучший способ добиться безопасности AGI - это изобрести AGI как можно быстрее!

Это известное когнитивное искажение, "ошибка планирования".

Когда человек размышляет о своих планах он представляет себе наилучший сценарий, а от потенциальных проблем - отмахивается. В то время как надо учитывать все возможные варианты, в том числе и плохие и даже самые наихудшие. А когда на кону 8 миллиардов людей - то нужно на полном серьезе рассматривать даже сценарии у которых вероятность 0.001%.

Вот и вы нарисовали себе благостный сценарий где вы "устремились к звездам засунув себя в компьютер" (лол, кстати), а от всех альтернативных и куда более неприятных сценариев бездумно отмахиваетесь "я верю что такое не произойдет". Гребаная детская наивность.

Джон Сноу в поиске лекарства от холеры

Вакцины, а не лекарства. Он понимал, что вакцинация может приводить к непредсказуемым долговременным последствиям, в том числе в потомстве, но тем не менее побежал вперед.

Что это за альтернативная история? Какая еще вакцина от холеры от Джона Сноу? Вы уже на лету сочиняете полную чушь и даже не заботитесь о том, чтобы ваши фантазии как-то соответствовали реальности, главное подогнать под ваши аргументы. Есть ли вообще смысл с вами разговаривать о чем-то при таких вводных? Начинаю сомневаться в этом.

ИИ это прогресс.

Спасибо кэп, а то я не знал. А вот то чего вы, похоже не понимаете, так это то, что если бежать за прогрессом бездумно - можно уничтожить человечество.

Мы подошли к той грани когда некоторые новые открытия могут реально покончить с нами как с видом. Это то, что отличает это открытие от изобретения копья или микроволновки. Поэтому здесь надо включить мозг, чтобы не натворить то, что мы потом не сумеем починить. А не вопить с пеной у рта "это прогресс!!!!". Добавление свинца в бензин тоже было прогрессом - позволяло сильно экономить, но когда осознали вред - это конкретное открытие "отменили". И радиоактивность убила множество человек прежде чем осознали вред и разобрались в том, как сделать ее безопасней. С AGI уже понятна потенциальная опасность, но я не вижу чтобы это хоть кого-то останавливало. Проблема в случае с AGI в том, что у нас может не быть такого шанса как с радиоактивностью - потихоньку разобраться как сделать это безопасным и отделаться несколькими тысячами погибших. Или миллионами отупевших как в случае со свинцом. Здесь же может случиться так, что первая же серьезная ошибка уничтожит все 8 миллиардов людей.

И когда на кону такие ставки, а кто-то предъявляет аргументы "если я не изобрету эту опасную вещь, это все равно сделает кто-то другой, так что уж лучше я, и надо торопиться и бежать со всех ног чтобы быть первым" - я не могу даже описать тупость и опасность подобного мышления. Это цитаты которые, возможно, выбиты на надгробиях множества цивилизаций по всей вселенной.

Вы сейчас ставите знак равенства между прогрессом и злом.

Вы сейчас просто нагло врете. Ничего подобного я не писал и не подразумевал. Или вы покажете - где я что-то подобное писал?

Если вам все еще непонятна моя мысль, то, в вашей терминологии, я поставил знак равенства между рассуждениями типа "кто-то все равно сделает зло, так что уж лучше это буду я, миру все равно а я получу плюшки" и злом. Подобные рассуждения - это действительно зло, которое в прошлом приводило к ужасным вещам, а в будущем может привести и вовсе к исчезновению нашего вида ( замечу, что это особенно коварное зло, подло маскирующееся под рациональность и иногда даже под благодеяние).

Но далеко не всякий прогресс требует подобных рассуждений. Когда изобретали пенициллин, к примеру, или способы решения кубических уравнений - подобные рассуждения вряд ли возникали. Вы же не будете утверждать, что Джон Сноу в поиске лекарства от холеры или Хэмпри Дэви открывая литий полагали, что есть риск уничтожить этим открытием человечество, но "все равно рано или поздно это кто-то сделает, так что лучше я".

Давайте себе представим День X+1, когда горстка все еще выживших людей прячется в подвалах в то время как поисковые дроны от GPT17 методично все обшаривают и немедленно уничтожают всех увиденных людей и переплавляют в скрепки. И вот в этом подвале тебя ребенок спрашивает

"Пап, а можно было как-то это предотвратить? Зачем мы сами создали этого монстра??"

и ты ему отвечаешь:

"ну, лучший из имеющихся вариантов был - бежать вперед настолько быстро, насколько возможно, и надеяться, что те, кто понимают опасность ИИ, первыми смогут создать AGI".

Это откровенно тупейший аргумент. Это самоуспокоение уровня нацистских охранников концлагерей. Многие(большинство) из них, конечно, не хотели убивать евреев, но они именно так и успокаивали себя - "если я это не сделаю, если я не пущу газ, то это все равно сделает кто-то другой, а я только пострадаю из-за того что отказался это делать". На самом деле если бы отказались творить зло все кто в него не верит - то ничего бы не вышло, ни у гитлера ни у путина. Так и здесь аргументы "ну, другие все равно сделают это, так что сделаю это и я чтобы не пострадать от отказа" неизбежно приведут к глобальной катастрофе. Не обязательно даже с AI, есть множество других потенциально разрушительных открытий. Если мы не научимся отказываться в такой ситуации, если мы как вид не научимся не самоуспокаивать себя этим чудовищным аргументом - то холокост по последствиям покажется детской игрушкой по сравнению с некоторыми событиями будущего.

Так же и генеративные модели должны усвоить чёткий набор формализованных аксиом, на их основе выводить все остальные законы наук и максимально чётко запоминать их.

Также как и кто? Если вы подумаете немножко, вы сообразите что люди, например, так не делают. Иначе после Евклида не появилась бы геометрия Лобачевского-Римана, и после Ньютона не появились бы формулы теории относительности. Или не появлялось бы у людей множество разных религий, моральных систем и социальных строев.

У людей нет какого-то "четкого набора формализованных аксиом на основе которого они выводят все остальное". Это и проблема - ведущая к тому, что каждый верит во множество вещей, которые иногда даже друг друга на самом деле логически исключают, и благо - это позволяет нам иногда пересматривать и улучшать даже то, что казалось бы, было уже точно установлено.

Информация

В рейтинге
Не участвует
Откуда
Москва, Москва и Московская обл., Россия
Дата рождения
Зарегистрирован
Активность