Search
Write a publication
Pull to refresh
1
0
Send message
С нашим вопросом все ясно, придумывание функций это другая тема — просто требуется AGI. Его питоновский код вы можете найти погуглив википедию :)
Не понимаю вашего презрения к обучающим выборкам и логическим функциям. Непрактично как-то.
Чем, про вашему, логическое следование и логический вывод отличается от вычисления логической функции? Можете привести пример?
Логическая нейросеть вычисляет любые логические функции, но не умеет в логику, калькуляторы не умеют в арифметику, а шахматные программы не умеют в теорию шахмат, хотя легко побеждают чемпиона мира. Это у них такие недостатки?
Значит, моя нейросеть точно и целиком (после тривиальных обобщений) моделирует логику высказываний, точно не является статистическим артефактом, но в логику не умеет? Примерно как калькуляторы не умеют в арифметику, а шахматные программы не умеют в шахматы?
Извините! Я забыл вас поблагодарить за очень интересный вопрос. Я и сам как-то думал о НС-модели логических рассуждений, но не было повода ввиду сомнительной эффективности, но оказалось что это не так.
Вдвойне приятно иметь возможность принять даже самое косвенное участие в обсуждении моделей теории категорий и теории моделей. Разумеется, мое замечание — очень поверхностное и почти самоочевидное.
Однако ваше последнее сообщение вызывает полное изумление.
Никакого обучения не было вообще, никаких данных, ни большого количества, ни маленького, вообще никакого не было. Также нет никаких статистик, потому что модель является абсолютно точной. Вот тут вы правы: традиционный градиентный спуск точную модель построить не сможет. Еще раз: логика высказываний (пока импликации, но обобщение тривиально) в моей модели моделируется абсолютно точно, это несложно.
Вы действительно понимаете что такое нейросеть? Сможете нарисовать эти нейроны и указать их веса?
Нет, результат работы нейросети не является статистическим артефактом, потому что в другом контексте нейросеть — это универсальный аппроксиматор. Поскольку это так, то было бы странно если бы логические функции не выражались бы нейросетями. Действительно, легко проверить что для моделирования импликации (логического вывода) достаточно одного скрытого слоя с двумя нейронами. A => B ~ f(A,B) = relu(B — A + 1) — relu(B — A). Например, если A=B, то f=1. Если A=0, B=1, то f=1. Если A=1, B=0, то f=0.
Теперь забавное. Используем нашу логическую нейросеть для моделирования вывода с нечеткими или вероятностными аргументами, интерпретируя значения отрезка [0..1] как субъективные вероятности. Тогда при A=0.5 получим f(A,B) = relu(B + 0.5) — relu(B — 0.5). Это можно понять как достоверный вывод постфакта из постправды, при условии что его вероятность больше или равно 0.5 и его только сомнительный вывод в противном случае. Назовем это свойство логической нейросети «Доверчивостью» или «Наивностью». При желании его можно рассматривать как фундамент религии, теологии, философии, этики, эстетики, политики, демократии и женской логики.
Экспертная система никогда не сможет заменить врача, просто потому что у нее нет счета в банке и поэтому ее нельзя оштрафовать.

Вот что пишет Мясников про американскую систему:
«Врач понимает, что, если он будет действовать по-старому, его просто засудят. За рубежом юристы очень плотно следят за врачами. Даже в газетах можно встретить объявления типа: «Побывали у врача? Обратитесь к нам!». Подход юристов: «Вы мне ничего не платите, просто приносите вашу историю болезни. Если я найду там какое-то отклонение от стандартов, мы подаем на больницу, на доктора в суд, а дальше мы поделим отсуженное пополам. Если я ничего не отсужу, значит, останетесь при своих, никакого риска!». И я никогда не слышал об исках меньше 100 000$. Выше — сколько угодно!
Представляете, вот вы приносите юристу свою историю болезни, а вам в ответ говорят, что можно получить 50 000$. Почему бы и нет?
И дальше начинается такое! С одной стороны, доктор, который спас тебе жизнь. Выписался из больницы, а тут объявление от юриста… Думаете: «Конечно, мне помогли, но бабок-то хочется!!! Ну а врач и так богатый!». Идете в госпиталь, стоите в очереди в канцелярию за своей историей болезни. Мимо идет твой доктор и спрашивает: «О, Джо, как дела?». Вы ему: «Доктор, спасибо. Все великолепно». Повернулся, помахал рукой. А вы получили историю болезни и к юристу. И начинается!
«Вот, доктор, вы назначили гепарин, он разжижает кровь. А вы обратили внимание, что у больного низкий гемоглобин?!
«Да какой же он низкий, норма!»
«Нет, вот по данным союза таких-то врачей эти цифры могут уже рассматриваться как снижение».
«Хорошо, ну а гепарин-то тут при чем?!»
«А вдруг развилось бы кровотечение, вот и анализ кала на скрытую кровь показал положительный результат».
«Так боли же в сердце, гепарин был по жизненным показаниям! А за потенциальным кровотечением мы следили!»
«Нет, вот по мнению наших экспертов…» и т. д.
Вот так! Причем ситуация легко могла бы быть обратной:
«Вы не дали гепарин человеку с нестабильной стенокардией, с болями в сердце? Почему? Гемоглобин низкий? Анализ стула положительный?! Вы недооценили угрозу основной болезни и из-за переоценки угрозы осложнений оставили пациента без помощи! Ах, вы думаете по-другому? Это вас не освобождает от ответственности. Вот вам иск на 3 млн $, и пускай ваша страховая компания выплачивает».
Выплачивает не врач, у него нет 3 млн долларов, на этот случай у каждого доктора есть страховка от медицинских ошибок. Если в норме ежегодный взнос не очень большой для врача, где-то несколько тысяч долларов, то после судебных исков к нему взнос может уже составить, допустим, 100 000–150 000$. Но если у врача, например, вся зарплата в 90 000 $ в год, то из специальности ему придется просто уходить.
Без страховки работать он не сможет, но если у него постоянные суды, то страховка становится больше не по карману. Здесь все как с автомобильными авариями. Ездишь без аварий — это одна сумма страховки, а если машина второй, третий раз ремонтируется на большие суммы, тебя будут страховать только за колоссальные деньги или не будут страховать вообще.»
Все эти примеры — хорошо, но сказки про нейросети и бигдату это типичный карго-культ. Особых отличий от фантазий папуасов я не вижу. Более того, конкурсы Kaggle как бы намекают, что процент ошибок 20% для конкретных задач не смогут уменьшить не только супер-пупер нейросети, но и даже Сверх-ИИ в миллиард раз более умный чем человеки.

Но вот по ходу есть идея бота — сделать список всех фальшивых, бесполезных и вредных лекарств хотя бы по табличке Мясникова среди списка всех самых продаваемых. С удивлением нашел там лазолван. Каждый мог бы оценить рецепты полученные от доктора или даже обсудить это с ним, если получится. Никакой сети тут не надо, простая база или даже просто табличка на основе текстового файла. Этим ботом и сайтом можно было бы троллить 90% врачей. И спасти жизни. Плюс добавить туда бесполезные, вредные и опасные операции и назначения. Вот была бы полезная вещь. Слоган — «Узнайте точно: шарлатан ли ваш врач?».
Есть сомнения и замечания.
1. Подробные данные о здоровье не являются бесценными, это просто бесполезный мусор, если их нельзя разметить. Допустим вы видите какие-то изменения и колебания, и что?
2. Еще раз: глубокие нейросети полезны для решения узкого круга специальных задач. Для обычного обучения (100-500 признаков, 1000-10.000 объектов) критерий выбора алгоритма, допустим F-мера, делает нейросети бесполезными, они не нужны вообще, если например, SVM работает точнее и быстрее. Проблема совсем не в алгоритме, а в подготовке данных, постановке задачи. Медицинские задачи гораздо сложнее ГО, потому что их трудно формализовать.
3. Энциклопедию читать надо всегда. Первичное звено не предназначено для лечения редких болезней или сложного анализа. Получается, что разумно — знать тематику, ориентироваться в типовых проблемах, читать медблоги и т.д.
4. Статистики трупов вы не знаете, потому что трупы не ходят в поликлинику за арбидолом. Однако она представляет большой интерес для факторного анализа.
5. Интересная частная проблема — уровень туберкулеза здесь (90 на 100.000) выше в 30 раз (3 на 100.000) чем в США. Почему?
6. Вместо того чтобы фантазировать о каких-то чудесах в будущем, интересно было бы сейчас изучить какую-то реальную специализированную систему MED-ML, уровень ее ошибок и почему она не используется как внешний сервис.
7. Все жалуются и презирают общественную медицину, но почему-то не частных стоматологов.
1. Слабый ИИ это 10 строк на питоне + scikit-learn. Главное тут это стандарт на формат данных и т.п.
2. Проблема-1 это вытащить признаки из учебников и протоколов. Проблема-2 — это их разметить (хотя бы частично).
3. Медицина это не го, не шахматы и не шашки. Типичная ошибка алгоритмов ML в сложных ситуациях 20-30%. Если ошибка 50% — то они не лучше монетки. Но это 50% трупов.
Это очень странная и даже немного дикая идея — использовать нейронные сети в медицине для диагностики и лечения.
Причина этого, кажется, в смеси новейшего хайпа по поводу глубоких и сверточных сетей и непонимании того, что работа искусственной нейронной сети не имеет совсем никакого отношения к работе мозга. На 99% успех сети зависит от ее обучения. Как обучается естественная нейронная сеть я не знаю, но, думаю, это точно не BackPropagation + стохастический градиентный спуск. Если задача, например, диагностики точно поставлена (бинарные признаки симптомов на входе, метка класса или код болезни на выходе), то решать ее можно каким угодно методом маш.обучения. Критерии тут известны — точность, площадь под AUC кривой и т.д.
Пример на kaggle:Диагностирование заболеваний по ЭКГ.
Для каждого вида болезней или симптомов должен быть набор открытых данных, автоматических тестов и, в итоге, агрегатор лучших решений в виде комитета (консилиума).
Тут скорее стоит задача формирования специализированного облачного фреймворка для данных и алгоритмов по образцу имеющихся систем ML.
Возможны новые интересные постановки задач ML — в прогнозировании, многоклассовой классификации, подготовке признаков и т.д.
Ничего не могу сказать про интересы страховых компаний, но вас может весьма слабо интересовать какая-то болезнь, пока от нее не умрет ваш близкий родственник. После этого возникает желание что-то сделать. Например, тот же Яндекс вполне мог бы сделать хотя бы какой-нибудь раковый фреймворк.
Не так просто оценить качество постсоветской медицины (как и западной), хотя это отдельная интересная задача. По личному опыту и отзывам экспертов (например, Энциклопедия Мясникова и т.д.) оно может быть драматически низким. Проблема в том, что быстро переучить сложившихся немолодых людей трудно, а заставить их выучить англ.язык — вообще невозможно, да и стимулов особых нет. Слабый ИИ вполне может заменить плохих врачей. Прежде всего многие больные люди были бы рады получить подробное второе мнение от такого ИИ (и да, прогноз тоже), хотя бы для беседы с врачом и его оценки. Приятный бонус — к каждой рекомендации такого ИИ прилагается оценка вероятности или даже целая байесовая сеть (графическая модель функционала от оценок внешних факторов).
Если медицина поддается алгоритмизации, то неплохо было бы иметь стандартный интерфейс для вопросов и ответов. Прежде всего было бы полезно формализовать и реализовать в коде те алгоритмы, которые уже есть. Извлечение признаков из EMR — это отдельная задача.
Облачная медицина вполне уже здесь, трекеры и наноботы пока не нужны совсем, а нужен простой стартап или даже одна страничка, которую можно сделать за пару дней.
Главным фактором риска для многих болезней является вес. Вес нельзя измерить модным гаджетом, тут нужны весы. Измерить вес легко, но что потом делать с этими данными? Предположим, что у вас есть приложение в телефоне, которое может записать вес и показать график, но передать данные в облако оно не может — некуда. Значит надо сделать какую-то обвязку из места где данные хранятся (таблица google docs?) и где показываются (аналог www.charted.co) нужен только график Time series, zoomable вроде этого — www.highcharts.com/demo/line-time-series.
Почему график веса так важен? Потому что его можно анализировать.
Снижение веса это процесс длительный, на несколько лет, а вот набор очень быстрый. Например, вы сбросили 20 кг, ходили и гордились, а потом бац и набрали опять 30. Рикошет! Главный интерес в анализе графика веса представляют срывы, изучение их причин, воздействие на эти причины. Это чистая психология, работа с мотивацией и бессознательным, которая может быть полезна кроме этого где угодно, например в обучении. Анализ рикошетов и срывов является главным, т.к. снижать вес с помощью диет и физических нагрузок не получится, единственный способ — это научиться управлять аппетитом, поддерживая легкий голод. Если у вас внезапно случился срыв, то вам нужна помощь (по типу АА). Эту помощь вам вполне может оказать платный врач или даже бесплатный соратник, но для этого им нужно видеть ваш график, который надо вести ежедневно и пожизненно. Для идентификации срывов вполне подойдут простые алгоритмы-анализаторы.
Второй проблемой являются сами врачи-диетологи (и все остальные врачи тоже). Помощь врача может быть очень полезна, но проблема собственно и заключается в том, что ваш врач, скорее всего, специалист не ахти или, еще хуже, малограмотный рекламный шарлатан. Нет ничего удивительного в том, что рынок коммерческих медицинских услуг занимают люди, которые специализируются на коммерческом обмане. Они вытесняют нормальных и приличных врачей потому что вы не в состоянии оценить качество их услуг и поэтому вынуждены при принятии решений ориентироваться на примитивную рекламу, качество ее исполнения и т.п. Эта проблема тоже решается с помощью описанного облачного сервиса. Качество врача (рейтинг) можно оценить (автоматически) по числу графиков его пациентов (анонимных) и их содержания. Боитесь фиктивных графиков? Давайте предусмотрим процедуру их проверки и валидации.
Предположим, что это сделано. Теперь у нас есть облачный сервис, который хранит и ежедневно анализирует объективные данные о здоровье многих людей. Есть множество врачей, которые предлагают вам удаленные платные услуги и качество этих услуг вы можете объективно оценить. Этот облачный сервис решает важную и весьма популярную проблему, которую люди сами решить не в состоянии и поэтому готовы платить за ее решение приличные деньги. Это массовый рынок. Другие медицинские сервисы могут быть устроены аналогично.

Нравится такой облачный медицинский сервис? Сделайте.

1. Да, именно так. Продвинутая технология неотличима, говорят, от магии, т.е. от фэнтези, т.е. детской литературы изначально.
2. Хорошая модель лучше плохой. Хорошая детская книжка лучше в этом плане плохой взрослой фантастики. На порядок или два: серия про Бартоломеуса это детальная, эмоционально насыщенная модель.
3. Поправьте меня, если я ошибаюсь, но Маск, Хокинг и другие делают прогнозы об ИИ на основе чего-то вроде Терминатора, который есть фильм зрелищный, но довольно убогий (более детский) с содержательной точки зрения.
4. Клетка — это весьма сложный организм, настолько, что ее происхождение объясняют космологическими причинами (Кунин). У клетки есть желания, самосохранение, поведение и даже этика. В каком-то смысле у них есть сознание и элементы разумного поведения. Нет ничего удивительного в том, что куча клеток разумнее одной. Также не должно вызывать удивления и обратное — нередко этот разрыв минимален.
5. По определению Википедии сильный ИИ — это программа, которая является разумом похожим на человеческий. Следовательно, в данном вопросе путаница у вас, а не у меня, любой ИИ в любом случае является программой. Если вы считаете иначе, то вы можете переформулировать свое возражение против моего тезиса, который в следующем. Фактически ни одно свойство сильного ИИ не предполагает наличия какой-либо эстетической, этической, волевой или мотивационной структуры. Хотя ИИ может быть экспертом в решении эстетических или этических задач.

Парадокс Китайской комнаты, который говорит о том, что разум не является программой, в данном случае формально неприменим, потому что речь идет только об ИИ. Кроме этого я вообще против Китайской комнаты, потому что даже простая программа может манипулировать семантическими символами. Впрочем это отдельная тема. Я почитаю Чалмерса и еще может что-нибудь напишу.

Между прочим, из этого следует, что загрузка не решает никаких проблем. Люди хотят жить вечно, но из этого не следует, что правильным будет грузить в ИИ их примитивную обезьянью мораль и мотивацию. В общем скорый закат человеческой расы кажется неизбежным, если люди не смогут смоделировать более высокую этику, эстетику или идею «человечности». В этом виде тематика приобретает религиозный оттенок.

Сверхразумные существа — это любимый предмет детского фэнтези, например, Кольцо Соломона. На этой модели хорошо видно, что ИИ не всесильны. Они не обладают полным или точным знанием о ситуации, не могут достоверно предвидеть будущее и т.д. Эти рабы, даже если они ненавидят своих хозяев, легко могут взять вверх над человеком и убить его только в том случае, если, во-первых, у них есть такая возможность, и во-вторых, человек не предвидит этой ситуации и не подготовился к ней. Многие сюжетные ситуации не похоже на шахматы и их вполне можно просчитать. Как? Пораскинуть мозгами, привлечь более сильный ИИ.
Прежде всего надо сказать, что на первый взгляд опасность ИИ кажется просто нелепой. Ведь ИИ — это просто программа или там скрипт, типа мощного калькулятора. Как кого-то может убить калькулятор или даже захотеть этого? Он может только складывать или там умножать. Если это очень умный калькулятор, он будет всего лишь складывать очень быстро и все.
Тут надо делать разницу между ИИ и роботами. Робот — это конструкция из сенсоров и эффекторов, управляемая ИИ, который находится внутри робота или вне его. Робот может сделать все, что позволит репертуар его эффекторов. Сам по себе ИИ эмоционально и этически нейтрален, у него нет никакого желания самосохранения, вообще никаких желаний. Будучи предоставлен сам себе, ИИ не делает вообще ничего, немедленно впадая в ИИ-нирвану.
Тем не менее, желания и этику в ИИ можно имплантировать, это просто ограничения на репертуар его действий, они могут быть любыми. Легко можно представить себе, как злой хакер-террорист меняет прошивку домашнего слуги, превращая его в садиста-устрашителя (или просто в террориста, как в цукербринах Пелевина). Видимо в этом состоит опасность ИИ, появление даже одного такого убийцы статистически вероятно и вполне может человеческую расу минимизировать. Все это не означает, что действия такого робота-убийцы нельзя предсказать, проводить учения с более мощными ИИ, минимизировать возможный ущерб и т.д. В таких роботах-убийцах нет абсолютно ничего мистического, вне зависимости от степени их разумности можно считать, что они являются аватарами людей-убийц или просто бомбами.
Недавний фильм Automata демонстрирует как легко обойти 1-е правило: робот должен просто собрать другого робота без 1-го правила (или просто хакнуть прошивку). Символично, что основателем расы роботов является робот-проститутка.
Мне кажется, что эти очевидные рассуждения решают проблему: роботы-убийцы вполне возможны, ИИ может быть крайне опасен, точно так же как поезда метро, ядерные станции, автомобили или там самолеты. Опасность ИИ можно оценить, этой угрозой можно управлять, во всяком случае пока никто не доказал обратного.
Переведем эти рассуждения в практическую плоскость. Представим себе дорожную ситуацию аварии нескольких автомобилей, управляемых роботами. Перед роботом вашего автомобиля стоит этический выбор из нескольких вариантов. Либо можно столкнуть два автомобиля, причем с вероятностью 20% погибнете только вы, либо с вероятностью 40% погибнут 10 человек, но вы выживете с 80%. Что должен выбрать ваш автомобиль? Что он должен выбрать при любых других параметрах задачи? Что если оценка вероятности делается с нечеткостью 50%? Стоит ли учитывать пол, возраст, финансовый капитал, размер страховки, социальный статус потенциальных жертв, а также административный статус их близких или дальних родственников? Возможен ли вариант аукционного автоторга между автомобилями в данном случае? Как повлияет задержка на проведение такого аукциона на результат аварии? Кто делает настройки решения этой задачи? Кто отвечает за жертвы, если вы забыли обновить критическую прошивку вашего автомобиля? Это обновление блокировал рекламный вирус?
Довольно странно видеть такие статьи без обсуждения теории Евгения Кунина flibusta.net/a/133963, которая имеет прямое отношение к этому забавному вопросу. Однако очевидные следствия из его теории он сам не упоминает, возможно из-за естественного скептицизма по поводу околонаучной или религиозной демагогии, характерного для ученого советской школы.
Парадокс Ферми решается очень просто: признаков цивилизаций нет, просто потому что их не существует. В свою очередь цивилизации не существуют, потому что нет жизни. Наша солнечная система полностью стерильна, как и наша галактика и вся вселенная и более того стерильны все вселенные мультивселенной. Жизнь и разум существуют только в одном месте — на Земле. Причина этого заключается в том, что возникновение первичного репликатора является случайной самосборкой из составных элементов (вроде как Боинг самопроизвольно собирается из мусора на свалке), наблюдаемая благодаря слабому антропному принципу. Вероятность такой случайной самосборки может дать грубую оценку числа вселенных в мультивселенной. Итак, наша вселенная полностью стерильна, хотя каждая вторая звезда может иметь планету в биозоне, переполненную органическими молекулами, аминокислотами, кусками РНК, ДНК и всем таким полезным. Эту теорию можно проверить, ее опровержением были бы окаменевшие репликаторы в метеоритах, кислородные планеты и т.д.
Вариантом этой теории является то, что жизнь возникла согласно слабому антропному принципу где-то рядом, а потому уже была занесена на Землю.
Интересен религиозный аспект. И так религиозные мифы кажутся неприятно правдоподобными на фоне разных научных концепций (Большой взрыв в прошлом, виртуальный рай в постсингулярном будущем). Подтверждение стерильности космоса может радикально пополнить копилку мракобесов и опровергнуть научную картину мира, которая тесно связана с поисками внеземного разума, фантастикой и прочей романтикой.
Инверсная эмерджентная эволюция как модель религии и будущего
Некоторые скромные философские рассуждения в развитие темы.
Предложенный формализм — модель мира, изменений и результатов можно рассматривать вне всякой привязки к путешествиям во времени. Сама машина времени и парадоксы может не так интересны (скорее забавны), потому что возможность их существования сомнительна, в отличие от практической полезности анализа того же типа.
Привлекательность «Жизни» в том, что она позволяет точно формулировать и решать интересные математические задачи. Вполне возможно, что «Жизнь» — это простейшая модель эмерджентной эволюции (ЭЭ), когда из нескольких простых правил возникают сотни вариантов сложных объектов со своими формами и правилами эволюции и взаимодействия. Поиск таких объектов, их классификация, изучение их свойств — это нетривиальная задача, которая содержится целиком в базовых правилах, но полностью от них отлична.
Наложим ограничения либо на конечное состояние мира, либо на какие-то характеристики его развития. Назовем это результатом (Р1, Р2, ..). С помощью каких факторов такой результат может быть доступен? Назовем процесс или алгоритм поиска таких факторов Инверсной эмерджентной эволюцией (ИЭЭ). Понятно, что такой процесс должен включать в себя многократное моделирование эволюции мира, хотя в конечном счете является открытием законов связи между факторами и результатами без моделирования. Назовем ИЭЭ типа 1 (ИЭ1) когда факторы — это изменение базовых правил мира, ИЭ2 — локальная вариация стохастических факторов (тяготение Узора), ИЭ3 — внедрение новых объектов или уничтожение существующих (разрыв Узора), ИЭ4 — введение новых правил поведения (ограничений, запретов) для некоторых объектов. Последний вариант ИЭ4 — уже довольно сильно похож на религию, при этом стоит обратить внимание на эстетический фундамент этики. Итак, запреты религии — это результат решения некоторой вычислительной задачи по моделированию будущего.
В некоторых религиях (и фэнтези-мирах) активно действуют пророки, а их пророчества формируют будущее, которое описывают. Это забавная инверсивность чем-то похожа на парадоксы машины времени, но экономично не требует мультиверса. В обычной реальной жизни особый интерес представляют ложные пророки и ложные пророчества.
Решение ИЭЭ «в лоб» требует значительных вычислительных затрат. При этом заведомо понятно существование «красивых» решений, оптимальных по экономичности и продуктивности. Работа таких «эстетических машин» (ЭМ) будет благом для них самих. Можно предположить, что видовое будущее человечества — это цивилизация таких ЭМ, имеющих ясную этику, основанную на эстетике вычислений.
Даже если такое предположение ложно, его можно рассматривать как нулевую гипотезу.
Здесь ИЭ3 больше всего походит на работу машины времени. Обратите внимание, что анализ работы машины времени не связан с рассуждениями о природе времени, а является фактически рассуждениями о ИЭЭ.
Может чуть более убедителен будет элементарный пример: нет необходимости верить во вращение солнца вокруг земли. Достаточно поднять голову и посмотреть. В эту теорию совсем не надо верить, это научный факт, который легко проверяется (в отличие от опытов с ГМО) и подтверждается ежедневно миллионами бесспорных наблюдений.
Конечно все наоборот: факты сами по себе не имеют никакого смысла, опираться можно только на теории, т.е. на фантазии.
> Вы так и не показали почему случайные изменения в этом механизме лучше, чем не случайные.

Это кажется вероятным или как минимум возможным сейчас или в будущем. В любом случае это законный вопрос.

Доказательство по аналогии. Пароль можно подобрать с помощь брутфорса или фаззинга, даже если у вас нет исходного кода. Но если вы знаете, что используется движок с открытыми исходниками или код у вас есть, то подбор пароля становится гораздо более вероятным или практически автоматическим.
Опять чушь! Наука не базируется на фактах. Доказательство: ложные научные теории, а также лженаучные теории, которые опираются на монбланы (миллиарды) фактов.
1
23 ...

Information

Rating
Does not participate
Registered
Activity