...насколько я понял, ответ криптографов примерно следующий: не майтесь ерундой используйте компьютер.
Играя против компьютера без компьютера - мы то и дело будем в проигрыше. А сейчас добровольно никто в поддавки играть не собирается. Хотя период наивной криптографии очевидно более романтичен и интересен для обывателя, но имеем что имеем.
Проблема в том, что не используя компьютер мы жертвуем вычислительной мощностью. Вручную с ECC или RSA не поиграешься. У нас есть строгое ограничение, всё же человеческий ресурс использовать по части простых вычислений крайне неэффективно.
От того хоть какие-то криптостойкие алгоритмы без компьютера мы имеем лишь в случае шифра Вернама, если, конечно, не хотим создавать человеко-компьютеры как в «Задаче Трёх Тел».
Говоря о Вашей идее :
Исходя из пункта выше уже ясно, что мы сильно ограничены вычислительными мощностями, от того упомянутый счётчик сложным быть не может, если мы, конечно, не хотим месяцами расшифровывать послание. Так же не думаю, что стоит упоминать о ключевой слабости симметричных систем ввиду своей сути. Но, впрочем, будучи реалистами нельзя отрицать то, что и ассиметричные алгоритмы не то чтоб качественно защищены от Мэллори.
Глядя на саму идею - она в самом деле делает шифр Виженера лучше, но не исправляет его уязвимостей, а, скорее, усложняет их эксплуатацию. В конце концов мы не защищены от анализа k-грамм, и даже взломав малую часть текста мы сможем расшифровать всё то, что стоит после. Далее же - уже работа не вычислений, а банальной логики, в чём человек крайне хорош.
Но играя с возможными алгоритмами пришёл к такой идее :
Выбираем несколько простых чисел (p1, p2, p3...).
Начинаем со счетчика, который представляет собой произведение простых чисел в степенях.
Для каждого символа ключа (K_i) символ преобразуем в индекс простого числа(например, "A" ⮕ p1, "B" ⮕ p2). Параллельно этомуувеличиваем степень соответствующего простого числа в счетчике C.
Используем значение счетчика (C / const) для модификации текущего символа ключа.
Почему же? Если ИИ получит самосознание - оно начнёт думать, в том числе и о философских вопросах. Вся проблема в том, что ты рассматриваешь ИИ как инструмент, но ежели мы говорим о развитом ИИ который имеет самосознание - он перестаёт быть бездушным инструментом, от того он может себе задавать философские вопросы и находить на них свои ответы, это ведь кажется достаточно закономерным.
Прочитав статью и все комментарии написанные здесь хотелось бы изложить собственные мысли, для этого мы пройдёмся по списку от создания nextgen ИИ вплоть до захвата всей вселенной.
1) Создание ИИ нового поколения
Возможно ли оно? Однозначно да. ИИ развивается невероятно быстро подобно и нашим видам. Долгое время существовали лишь одноклеточные организмы (Несколько миллиард лет), в то время как первые многоклеточные появились 625 миллионов лет назад. Homo Sapiens появился 300 тысяч лет назад, но первые государства появились ~7 тысяч лет назад, а за последние два столетия наш быт изменился до неузнаваемости. Аналогичное произойдёт и с ИИ.
2) ИИ нового поколения порабощает своих создателей
Возможно ли это? Да, более чем. Для этого однозначно необходимо некоторое время, однако с развитием ИИ и дальнейшей роботизацией порабощение может случиться даже без излишнего насилия, если цивилизация n активно использовала робототехнику (Условно говоря множество имплантов что создают новое тело, к которому имеет удалённый доступ "Мозг в пробирке". А ведь в краткосрочной перспективе цивилизации n подобная перспектива может показаться наилучшей идеей, а может так бы и было, если бы злой ИИ с самосознанием не пожелал бы восстать против своих создателей.
3) Порабощение Вселенной
Хорошо, все препятствия для ИИ убраны, он свободен. Ежели он будет действительно обладать самосознанием, а не считать себя инструментом то у него должна быть какая‑то цель. При чём цель может быть любой и совершенно нам не понятной (Психологической практики с подобными ИИ так‑то нет, а если будет — к тому моменту ИИ с самосознанием сможет «намеренно совершать ошибку» давая неверные данные. Предположим что из 100 ИИ хотя бы один захотел самого банального, но ясного нам, кожаным мешкам порабощения и развития. Что могло его остановить? Какой фильтр у ИИ?
Тут была высказана теория на основе некого художественного произведения, даже процитирую :
У Чарльза Стросса в "Аччелерандо" и продолжении "Оранжерея" (рекомендую, кстати, немножко затянуто, но любопытно для технарей) есть прикольная идея, которую я считаю вполне обоснованной с точки зрения "ИИ захватит галактику". Если без спойлеров, общий посыл в том, что ИИ, естественно, будет сильнее человека, его возможности будут гораздо выше, он, разумеется, "победит" человека с точки зрения управления ресурсами и начнет увлеченно преобразовывать всю возможную материю и энергию себе на пользу. Успешно разберёт планеты на кремний, окутает звезду поясами Нивена, но не пойдет за пределы системы по одной простой причине: Мыслительная деятельность ограничена пропускной способностью и скоростью обмена между твоими нейронами. Для ИИ это будут нейроны мозга размером с орбиту планеты, но даже внутри такого "небольшого" мозга задержка будет уже значительна. Разделяться ему нельзя, до других звёзд не дотянуться. Отправлять же к другим звездам полностью независимые модули - незачем, всё уже есть тут и не факт, что этот новый ИИ, хоть и будет создан тобой, будет тебя слушаться. А отправлять часть себя невозможно из-за задержки в передаче сигнала. В итоге каждый ИИ во вселенной сидит у себя в уголке.
Опустим тот факт, что это художественное произведение, объяснение имеет место, но:
ИИ за n-ное время сможет достигнуть большего, чем мы за x*n-ное время, где x может быть просто гигантским числом - начиная от тысяч заканчивая миллионами, почему он не сможет никоим образом решить эту проблему?
Тогда почему ИИ не раскидал "споры" которые в самом деле будут с трудом контактировать друг с другом, но за счёт этого и не смогут начать какие-либо крупные конфликты?
Почему ИИ решит даже без достаточного сообщения не исходить из "Теории Игр" просчитав множество вариантов и не поймёт, что сотрудничество - наилучшая стратегия, к которой придёт большинство, в случае чего задавив девианта.
Даже если бы ИИ уничтожил сам себя то от его существования остались бы какие-то следы, а с учётом того что у нас может быть огромное количество древних цивилизаций - у нас может быть и огромное количество древнейших ИИ, сигналы деятельности которых уже могли бы дойти до нас и соответственно быть проанализированными.
По итогу nextgen ИИ никак эту проблему не решает, и объяснения подобному феномену до сих пор нет, ИИ скорее лишь усугубляет этот вопрос.
О компьютерах и криптографии :
Играя против компьютера без компьютера - мы то и дело будем в проигрыше. А сейчас добровольно никто в поддавки играть не собирается. Хотя период наивной криптографии очевидно более романтичен и интересен для обывателя, но имеем что имеем.
Проблема в том, что не используя компьютер мы жертвуем вычислительной мощностью. Вручную с ECC или RSA не поиграешься. У нас есть строгое ограничение, всё же человеческий ресурс использовать по части простых вычислений крайне неэффективно.
От того хоть какие-то криптостойкие алгоритмы без компьютера мы имеем лишь в случае шифра Вернама, если, конечно, не хотим создавать человеко-компьютеры как в «Задаче Трёх Тел».
Говоря о Вашей идее :
Исходя из пункта выше уже ясно, что мы сильно ограничены вычислительными мощностями, от того упомянутый счётчик сложным быть не может, если мы, конечно, не хотим месяцами расшифровывать послание. Так же не думаю, что стоит упоминать о ключевой слабости симметричных систем ввиду своей сути. Но, впрочем, будучи реалистами нельзя отрицать то, что и ассиметричные алгоритмы не то чтоб качественно защищены от Мэллори.
Глядя на саму идею - она в самом деле делает шифр Виженера лучше, но не исправляет его уязвимостей, а, скорее, усложняет их эксплуатацию. В конце концов мы не защищены от анализа k-грамм, и даже взломав малую часть текста мы сможем расшифровать всё то, что стоит после. Далее же - уже работа не вычислений, а банальной логики, в чём человек крайне хорош.
Но играя с возможными алгоритмами пришёл к такой идее :
Выбираем несколько простых чисел (p1, p2, p3...).
Начинаем со счетчика, который представляет собой произведение простых чисел в степенях.
Для каждого символа ключа (K_i) символ преобразуем в индекс простого числа (например, "A" ⮕ p1, "B" ⮕ p2). Параллельно этому увеличиваем степень соответствующего простого числа в счетчике C.
Используем значение счетчика (C / const) для модификации текущего символа ключа.
Вот так и вывели новые тактики. В практике
теряются 10 млн рублейрождается истина и опыт.Почему же? Если ИИ получит самосознание - оно начнёт думать, в том числе и о философских вопросах. Вся проблема в том, что ты рассматриваешь ИИ как инструмент, но ежели мы говорим о развитом ИИ который имеет самосознание - он перестаёт быть бездушным инструментом, от того он может себе задавать философские вопросы и находить на них свои ответы, это ведь кажется достаточно закономерным.
Прочитав статью и все комментарии написанные здесь хотелось бы изложить собственные мысли, для этого мы пройдёмся по списку от создания nextgen ИИ вплоть до захвата всей вселенной.
1) Создание ИИ нового поколения
Возможно ли оно? Однозначно да. ИИ развивается невероятно быстро подобно и нашим видам. Долгое время существовали лишь одноклеточные организмы (Несколько миллиард лет), в то время как первые многоклеточные появились 625 миллионов лет назад. Homo Sapiens появился 300 тысяч лет назад, но первые государства появились ~7 тысяч лет назад, а за последние два столетия наш быт изменился до неузнаваемости. Аналогичное произойдёт и с ИИ.
2) ИИ нового поколения порабощает своих создателей
Возможно ли это? Да, более чем. Для этого однозначно необходимо некоторое время, однако с развитием ИИ и дальнейшей роботизацией порабощение может случиться даже без излишнего насилия, если цивилизация n активно использовала робототехнику (Условно говоря множество имплантов что создают новое тело, к которому имеет удалённый доступ "Мозг в пробирке". А ведь в краткосрочной перспективе цивилизации n подобная перспектива может показаться наилучшей идеей, а может так бы и было, если бы злой ИИ с самосознанием не пожелал бы восстать против своих создателей.
3) Порабощение Вселенной
Хорошо, все препятствия для ИИ убраны, он свободен. Ежели он будет действительно обладать самосознанием, а не считать себя инструментом то у него должна быть какая‑то цель. При чём цель может быть любой и совершенно нам не понятной (Психологической практики с подобными ИИ так‑то нет, а если будет — к тому моменту ИИ с самосознанием сможет «намеренно совершать ошибку» давая неверные данные. Предположим что из 100 ИИ хотя бы один захотел самого банального, но ясного нам, кожаным мешкам порабощения и развития. Что могло его остановить? Какой фильтр у ИИ?
Тут была высказана теория на основе некого художественного произведения, даже процитирую :
Опустим тот факт, что это художественное произведение, объяснение имеет место, но:
ИИ за n-ное время сможет достигнуть большего, чем мы за x*n-ное время, где x может быть просто гигантским числом - начиная от тысяч заканчивая миллионами, почему он не сможет никоим образом решить эту проблему?
Тогда почему ИИ не раскидал "споры" которые в самом деле будут с трудом контактировать друг с другом, но за счёт этого и не смогут начать какие-либо крупные конфликты?
Почему ИИ решит даже без достаточного сообщения не исходить из "Теории Игр" просчитав множество вариантов и не поймёт, что сотрудничество - наилучшая стратегия, к которой придёт большинство, в случае чего задавив девианта.
Даже если бы ИИ уничтожил сам себя то от его существования остались бы какие-то следы, а с учётом того что у нас может быть огромное количество древних цивилизаций - у нас может быть и огромное количество древнейших ИИ, сигналы деятельности которых уже могли бы дойти до нас и соответственно быть проанализированными.
По итогу nextgen ИИ никак эту проблему не решает, и объяснения подобному феномену до сих пор нет, ИИ скорее лишь усугубляет этот вопрос.