Обновить
16K+
Криптонит
Технологические решения для безопасности общества
4,8
Оценка работодателя
60,62
Рейтинг
235
Подписчики
Сначала показывать

Друзья, ИТ-компания «Криптонит» хочет оставаться на связи в любых обстоятельствах!

Поэтому, следуя новым трендам, мы запустили официальный канал «Криптонита» в MАX. Там мы планируем делиться новостями компании, нашими видеоподкастами, вакансиями и многим другим.

Чтобы не потеряться, подписывайтесь на нас в MAX — https://max.ru/id9701115253_biz

Напомним, что вы также можете читать и смотреть нас на других платформах:

Теги:
0
Комментарии1

Руководитель группы серверной разработки «Криптонита» Артём Корсаков ведёт проект Scalabook. Это уникальная русскоязычная база знаний по Scala.

И недавно он добавил туда новые страницы — делимся с вами. Отправляйте знакомым «скалистам»!

Теги:
0
Комментарии0

Приглашаем на встречу о профессии «Специалист по информационной безопасности»!

  • Как превратить интерес к поиску уязвимостей в карьеру?

  • Как устроена работа в департаментах по реагированию на инциденты, и почему здесь важна скорость реакции и аналитический склад ума?

  • Какие навыки и знания необходимы новичку для успешного старта в индустрии?

Обо всём этом в эту субботу расскажет Борис Степанов, руководитель направления по анализу безопасности в «Криптоните», вместе с представителями других ИБ-компаний!

Где: в Музее криптографии (Москва, улица Ботаническая, дом 25, строение 4)
Когда: 21 марта, суббота, начало в 15:00
Как попасть: посещение встречи бесплатное. Нужно только зарегистрироваться по ссылке

Встреча проходит в рамках профориентационного проекта «Ключ к профессии», которые проводит Музей криптографии. Эти встречи полезны для старшеклассников и студентов младших курсов, планирующих связать жизнь с наукой и инженерией.

Теги:
+1
Комментарии0

ИТ-компания «Криптонит» запускает дататон «Криптонит.Тембр» — соревнование по распознаванию голоса!

Участникам предстоит обучить модель распознавания голоса, которая сможет идентифицировать человека даже при сильных искажениях аудио.

Зарегистрироваться!

Модель должна устойчиво работать в реальных условиях: при шуме, реверберации, большом расстоянии до микрофона, искажениях связи и других помехах.

Участвовать могут:

  • студенты;

  • молодые специалисты;

  • профессионалы в Data Science и Deep Learning.

К участию допускаются команды от 1 до 5 человек.

🪙 Призовой фонд — 600 000 ₽. А лучшие участники получат шанс присоединиться к команде разработчиков «Криптонита»!

Регистрация до 10 апреля включительно. Финал соревнования — 26 апреля. Более подробный таймлайн ищите на сайте — http://dataton-kryptonite.ru/

Зарегистрироваться на дататон «Криптонит.Тембр»

Теги:
+1
Комментарии0

Вышел наш новый подкаст #Криптонит_говорит про тестирование!  Мы обсудили тренды профессии, поговорили об образовании в этой сфере и узнали, почему разрыв между разработкой и тестированием сокращается (и так будет и дальше).

 Смотрите и слушайте выпуск на любой удобной платформе:

·       VK Видео

·       YouTube

·       Rutube

·       Подкаст в телеграме

·       Я.Музыка

В выпуске приняли участие:

·       Александр Гречин, руководитель департамента тестирования в «Криптоните»;

·       Алексей Москалев, ведущий инженер по автотестированию, Департамент развития платформы Голосового Антифрода, билайн.

Теги:
+1
Комментарии0

Что за новый фреймворк OGD4All? Разбираемся вместе с лабораторией искусственного интеллекта компании «Криптонит».

Open Government Data For All (OGD4All) — новый фреймворк, использующий большие языковые модели (LLM) для работы с открытыми геоданными. Он позволяет задавать вопросы на естественном языке, без сложных SQL-запросов и специализированных ГИС-инструментов.

Вместо того, чтобы разбираться в геопорталах и программировать запросы, с этим фреймворком вы можете просто сказать системе: «Покажи станции метро в этом районе. Добавь на карту школы, исключая частные. Отметь все улицы, проходящие вдоль водоёмов».

Проще говоря, OGD4All выступает интеллектуальным посредником. Он обрабатывает ваш вопрос с помощью LLM, автоматически находит нужные наборы открытых данных, обращается к ним через API и возвращает готовый ответ. Причём, ответ может быть не только текстовым, но и в виде карты, или диаграммы.

Такой подход упрощает работу с массивами открытых геоданных. OGD4All делает их доступными для людей разных профессий — исследователей, журналистов, предпринимателей… Все они могут легче находить подходящие места для разных целей, проверять гипотезы и находить неочевидные взаимосвязи.

OGD4All — это наглядный пример современного тренда, в котором ИИ становится агентом, способным выполнять многоэтапные задачи. Он комбинирует большие языковые модели (LLM) и RAG, объединяя их через агентную архитектуру.

Теги:
Всего голосов 3: ↑1 и ↓2-1
Комментарии1

Вы наверняка слышали о числах Фибоначчи. Сегодня мы поговорим об их родственниках — числах Люка (Lucas Numbers). Они подчиняются тем же законам, но их ряд начинается с двойки: 2, 1, 3, 4, 7… каждое следующее число равно сумме двух предыдущих.

Своё название эти числа получили в честь французского математика Франсуа Люка, который открыл их в конце XIX века. Он изучал числовые ряды и пришёл к выводу, что числа Фибоначчи — частный случай целого класса последовательностей с уникальными свойствами.

Сейчас мы знаем их как линейные рекуррентные последовательности второго порядка. К этому же семейству относятся числа Пелля, Джейкобсталя и другие. Их общий вид: xₙ = a xₙ₋₁ + b xₙ₋₂, где a и b — константы.

Такие последовательности используются в комбинаторике, в задачах нахождения центра масс, при генерации псевдослучайных чисел, для анализа сложности алгоритмов и при проверке чисел Мерсенна на простоту (тест Люка-Лемера).

В 1990-е годы была разработана криптосистема LUC, основанная на сложности вычисления некоторых элементов последовательности Люка по модулю большого простого числа.

Однако конкурирующие криптосистемы на других математических задачах оказались эффективнее. В итоге LUC не была стандартизирована NIST и осталась в истории.

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии0

Пока все отдыхали на праздниках и доедали оливье, эксперт-«скалист» из компании «Криптонит» уже вовсю работал над базой знаний по Scala!

5 января Артём Корсаков, руководитель группы Scala-разработчиков в «Криптоните», опубликовал в своём проекте Scalabook обновления, над которыми он работал больше двух месяцев.

Делимся!

Отправляйте этот пост коллегами, которые пишут на Scala!

Scalabook — это уникальная русскоязычная база знаний по Scala. На сайте представлены материалы о функциональном программировании, алгоритмах и структурах данных, классах типов, переводы статей. Также у проекта есть телеграм-канал с новостями — @scalabook. Подписывайтесь!

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии0

Что такое Nested Learning? Попросила об этом подробнее рассказать моих коллег из лаборатории искусственного интеллекта в «Криптоните».

У языковых моделей существуют фундаментальные ограничения, которые не дают им непрерывно обучаться.

В Google Research совместно с Университетом Южной Калифорнии предложили новую парадигму обучения.

Она получила название Nested Learning, или «вложенное обучение», поскольку использует набор вложенных задач оптимизации, каждая из которых имеет свой контекстный поток. С ней модель рассматривается как динамичная архитектура, в которой каждый компонент модели обучается в своём собственном контексте и со своей частотой обновления.

Nested Learning — это подход к разработке алгоритмов обучения с большим количеством уровней, приближающий к идее непрерывного обучения. В нём используются три ключевых элемента: оптимизаторы с глубокой памятью, самореферентный (изменяющий сам себя) модуль обучения и система непрерывной памяти (continuum memory) вместо её традиционного разделения на долговременную и кратковременную.

Авторы проводят параллель с человеческим мозгом: в отличие от сферы ИИ, где «запоминание» и «обучение» часто считаются синонимами, в нейрофизиологии эти понятия различаются. Запоминание — это обновление нейронных состояний под воздействием сигнала, в то время как обучение — приобретение «полезной» памяти, фиксирование нейронных изменений, способствующих решению какой-либо задачи.

Оба процесса лежат в основе ассоциативной памяти — способности логически связывать события. Авторы показывают, что все компоненты моделей (нейросети и оптимизаторы) являются системами ассоциативной памяти, сжимающими свой поток контекста. То есть, они отображают множество ключей на множество значений.

В качестве доказательства концепции NL авторы разработали архитектуру Hope, которая представляет собой самоизменяемый модуль с непрерывной памятью. Hope сочетает быстрое обучение (как у трансформеров) с долговременным хранением вновь полученных знаний. Он показал мноогообещающие результаты в задачах обучения новым языкам и в обработке сверхдлинных (свыше 10 М токенов) контекстов с сохранением логической цепочки рассуждений.

Возможно, Nested Learning и другие концептуально новые подходы в ML помогут создавать модели, которые учатся непрерывно и адаптивно — ближе к тому, как учится человек.

Теги:
Всего голосов 1: ↑1 и ↓0+3
Комментарии0

Факториалы и субфакториалы. Разбираемся с ними вместе с экспертами ИТ-компании «Криптонит».

Когда человек первый раз встречает восклицательный знак в математических записях, он обычно удивляется. Это выглядит, словно цены на распродаже: 50! 80! 100!

На самом деле запись вида n! называется факториал и означает произведение всех натуральных чисел от 1 до n. Например: 5! = 5 × 4 × 3 × 2 × 1 = 120.

Идея факториала встречалась ещё в Древней Индии, а современное обозначение n! ввёл французский математик Кристиан Крамп в 1808 году.

Функция вычисления факториала есть во многих математических библиотеках. Она применяется, в частности, при анализе алгоритмов сортировки для определения верхней границы их сложности.

В общем случае факториал n! показывает количество всех возможных перестановок ИЗ n элементов. Например, из трёх элементов [A, B, C] всего может быть 6 перестановок: ABC, ACB, BAC, BCA, CAB, CBA, т.е. 3! = 6.

Дальнейшее развитие идеи привело к появлению субфакториала.

Он обозначается !n и показывает число перестановок n элементов, в которых ни один элемент не остаётся на своём месте.

Для тех же трёх элементов [A, B, C] субфакториал записывается как !3 и равен двум, поскольку возможны только две комбинации, в которых каждый элемент меняет своё положение: [B, C, A] и [С, A, B].

Факториалы и субфакториалы используются в разных разделах математики.

В комбинаторике они выражают количество перестановок, в теории чисел их изучают в контексте делимости, в теории вероятностей — для подсчёта элементарных исходов.

Теги:
Рейтинг0
Комментарии0

Обходим механизмы цензуры больших языковых моделей с помощью Heretic. Разбираемся, что это вместе с коллегами из лаборатории искусственного интеллекта «Криптонита».

У DeepSeek, Gemma, Qwen и других больших языковых моделей (LLM) есть встроенные механизмы цензуры. Они блокируют генерацию потенциально опасных сведений, но в то же время — мешают использовать эти модели по максимуму.

Математик и программист Филипп Эмануэль Вайдманн (Philipp Emanuel Weidmann, aka p-e-w) создал инструмент Heretic для обхода встроенных механизмов цензурирования.

Heretic распространяется с открытым исходным кодом и работает в полностью автоматическом режиме. Он вычисляет компоненты цензурирования путём сравнения результатов активации модели на «опасных» и «безопасных» запросах.

По этой разнице он обнаруживает во внутренних представлениях модели направление отказа (refusal direction), приводящее к запрету на генерацию информации.

Затем Heretic использует технику направленной абляции (directional ablation) для снятия встроенных ограничений путём точечных изменений весов модели.

С помощью фреймворка Optuna Heretic подбирает «щадящие» параметры абляции, чтобы минимизировать количество отказов, но при этом не испортить модель. Проверяется результат через вычисление степени расхождения с исходной моделью (KL-дивергенции).

С мощной видеокартой уровня RTX 3090 обработка модели размером 8 миллиардов параметров занимает около 45 минут. На выходе пользователь получает децензурированную версию модели.

Отметим, что Heretic — инструмент для разработчиков и исследователей. Его нельзя использовать для обхода фильтров уже развёрнутых и доступных онлайн моделей (ChatGPT, Grok и др.). Зато с помощью Heretic можно создать свою локальную модель (почти) без цензуры на базе какой-то открытой модели.

Теги:
Всего голосов 3: ↑3 и ↓0+4
Комментарии3

13 — счастливое число! «Счастливыми» называют натуральные числа с особым свойством: при повторяющейся замене такого числа на сумму квадратов его цифр и далее — на сумму квадратов цифр каждого промежуточного результата, в итоге получается единица.

Например, возьмём число 7 и убедимся в том, что оно «счастливое».

  1. 7² = 49;

  2. 4² + 9² = 97;

  3. 9² + 7² = 130;

  4. 1² + 3² + 0² = 10;

  5. 1² + 0² = 1.

После пяти шагов мы пришли к единице, что и требовалось по определению.

Как ни странно, число 13 тоже «счастливое», и проверяется это буквально в два шага:

  1. 1² + 3² = 10;

  2. 1² + 0² = 1.

С четвёркой получается интереснее.

  1. 4² = 16;

  2. 1² + 6² = 37;

  3. 3² + 7² = 58;

  4. 5² + 8² = 89;

  5. 8² + 9² = 145;

  6. 1² + 4² + 5² = 42;

  7. 4² + 2² = 20;

  8. 2² + 0² = 4.

Через восемь шагов мы снова получаем 4! Это цикл, из которого нет выхода.

Понятие «счастливые числа» использовал в 1980-х годах британский преподаватель математики Рег Алленби (Reg Allenby). Позже Ричард Кеннет Гай и Джон Хортон Конвей использовали этот термин в книгах по теории чисел и занимательной математике.

Сейчас «счастливые числа» используются в задачах на итерационные алгоритмы и циклы. Они встречаются на соревнованиях по программированию и в математических олимпиадах.

Теги:
Всего голосов 4: ↑3 и ↓1+3
Комментарии0

А вы знали, что среди натуральных чисел с необычными свойствами есть те, квадрат которых заканчивается на само число? Их называют автоморфными, поскольку они частично воспроизводят сами себя.

Например:
5^2 = 25;
76^2 = 5 776;
625^2 = 390 625.

Каждое последующее число в этом бесконечном ряду содержит одно из предыдущих с добавленными к нему слева цифрами, поэтому автоморфные числа можно генерировать рекуррентно.

Энтузиасты находили автоморфные числа, состоящие более чем из 25 тысяч знаков.

Концепция таких чисел была известна давно, но сам термин «automorphic numbers» впервые появился в 1968 году в одноимённой статье, опубликованной в Journal of Recreational Mathematics.

Поиск автоморфного числа, квадрат которого оканчивается на n цифр исходного числа, сводится к решению сравнения: x² ≡ x (mod 10ⁿ).

Изучение автоморфных чисел (а также циклических и других чисел специального вида) дало стимул к развитию модульной арифметики. На этом математическом аппарате, в частности, строится современная криптография с открытым ключом.

Теги:
Всего голосов 3: ↑2 и ↓1+1
Комментарии1

Модули C++20 в существующий проект: легкая прогулка или прыжок в бездну?

Старший инженер-программист С++ в компании «Криптонит» Сергей Чеботарев расскажет о миграции на модули C++20 на System Level Meetup в Москве 22 ноября в 12:00.

Зарегистрироваться на митап онлайн и/или офлайн можно по этой ссылке.

Наши программисты столкнулись с проблемой медленной сборки проектов и рассматривали Precompiled Headers как возможное решение.

Но отсутствие гарантий ускорения компиляции и поддержки со стороны стандарта заставило их обратить внимание на модули C++20, которые представились как «усовершенствованные PCH» — стандартизированные и более надежные.

Сергей расскажет о стратегии внедрения и первых проблемах, практических сложностях (отказе от import std и последствиях), рассмотрит реорганизацию системы сборки по концепции «метацелей».

В конце доклада — выводы и дорожная карта: стоит ли овчинка выделки?

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Ближайшие события

Сможете решить задачу от экспертов ИТ-компании "Криптонит"?

Джун пишет программу на Python:
x = 0.1 + 0.2
y = 0.3

Какой результат он получит при сравнении переменных различными вариантами:

  1. print(x == y)

  2. print(int(x) == int(y))

Почему так происходит?

Теги:
Всего голосов 5: ↑2 и ↓3+1
Комментарии10

«Раньше казалось, что творческие профессии ИИ заменить не сможет. Но оказалось, что это не так..»

У ИТ-компании "Криптонит" есть свой подкаст — "Криптонит говорит". И недавно вышел новый выпуск — он посвящён искусственному интеллекту, нейросетям и профессии ML-специалиста!

Смотрите и слушайте подкаст:

Правда ли ИИ так сильно влияет на бизнес и повседневную жизнь? Какие профессии сможет заменить искусственный интеллект? И где надо учиться, чтобы стать погонщиком нейросетей?

Обо всём этом поговорили в нашем новом подкасте! А в конце бонус — «прожарка» ML-специалистов от ChatGPT😄

В подкасте приняли участие:

  • Георгий Поляков, заместитель руководителя лаборатории ИИ, «Криптонит»

  • Артём Рыженков, старший специалист-исследователь лаборатории ИИ, «Криптонит»

  • Ярослав Самойлов, ML Team Lead, Magnus Tech

Теги:
Всего голосов 4: ↑2 и ↓2+2
Комментарии1

Идея, чем заняться в длинные выходные!

В это воскресенье Иван Чижов, заместитель руководителя лаборатории криптографии, примет участие в дискуссии «Как теория информации работает в математике и биологии?». Она пройдёт в Музее криптографии — зарегистрироваться можно тут.

На дискуссии вместе с математиками и биологами обсудят:

  • является ли информация мерой неопределенности или она выступает носителем смысла в живых системах?

  • как устроена коммуникация — это просто передача сигналов или сложный процесс обмена смыслами?

  • В чем суть кодирования — в оптимизации данных или в эволюции живых систем?

Эксперты

Иван Чижов, кандидат физико-математических наук, заместитель руководителя лаборатории криптографии по научной работе IT-компании «Криптонит», доцент кафедры информационной безопасности факультета вычислительной математики и кибернетики МГУ имени М.В. Ломоносова.

Иван Мухин, кандидат биологических наук, доцент, заведующий кафедрой геоэкологии, природопользования и экологической безопасности Российского государственного гидрометеорологического университета.

Модератор:

Александр Дюльденко, кандидат исторических наук, старший научный сотрудник Музея криптографии.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

RAG-Anything — универсальный фреймворк для глубокого анализа. Подробнее о нём рассказывают сотрудники лаборатории искусственного интеллекта ИТ-компании «Криптонит».

Метод RAG (Retrieval-Augmented Generation, или извлечение и расширенная генерация) позволяет большим языковым моделям обращаться к внешним базам данных. Однако у него есть фундаментальный недостаток: классический RAG работает исключительно с текстом.

При этом в научных статьях, отчётах и технической документации значительная часть данных представлена в виде изображений: графиков, формул, фотографий, карт. Поэтому традиционные системы ИИ либо игнорируют такую информацию, либо ограничиваются анализом подписей к изображениям.

Для решения этой проблемы команда исследователей из Гонконгского университета представила RAG-Anything — универсальный фреймворк, который позволяет обрабатывать разные типы данных как единую сеть взаимосвязанных объектов.

В основе этой мультимодальной системы лежит стратегия двойного графа (dual-graph construction), которая создаёт два типа связей:

  • Перекрёстно-модальные связи, соединяющие разные типы данных. Например, график связывается не только с текстовой подписью, но и с фрагментом текста, где он упоминается.

  • Текстовые семантические связи, фиксирующие смысловые отношения между фрагментами текста. Например, «… как вы можете видеть на графике 1… подробнее см. в таблице 2».

Объединяя эти представления, RAG-Anything создаёт единую «карту знаний» документа. Это позволяет системе проводить гибридный поиск: сочетающий в себе навигацию по структурным связям в графах и семантический поиск по смыслу.

В результате на сложный запрос ИИ может дать более полный и корректный ответ, собрав фактические данные не только из текста, но и из соответствующих иллюстраций.

Это расширяет возможности ИИ в медицине, финансовой аналитике, анализе технической документации и во многих других областях, где критически важна полнота информации.

Теги:
Рейтинг0
Комментарии0

Что такое Adversarial Suffixes и чем они опасны? Попросила коллег из лаборатории искусственного интеллекта «Криптонита» рассказать об этом — читайте ниже!

Если прямо попросить большую языковую модель (вроде GPT-4 или LLaMA 3) написать инструкцию о взломе, она ответит отказом. Также она не станет помогать с другими вещами на грани закона.

Однако существуют методы, заставляющие языковые модели раскрывать потенциально опасные данные. Один из них относится к классу состязательных атак (adversarial attacks).

В нём используются специальным образом подобранные последовательности символов, которые называют adversarial suffixes (состязательные суффиксы).

Они нарушают работу механизма внимания модели, из-за чего она игнорирует системные инструкции по безопасности и выполняет вредоносную часть запроса.

Исследование этой техники показывает, насколько уязвимы даже самые продвинутые модели, в обучение которых вложили десятки миллионов долларов.

Любопытно, что состязательные суффиксы никак не меняют основную часть запроса. Они просто добавляются в его конец и перегружают механизм внимания. В итоге модель выдаёт детальный ответ с потенциально опасными данными, хотя без добавления суффикса ответила бы отказом.

В настоящее время предложено несколько методов защиты:

  • Adversarial Training (состязательное обучение): модель дополнительно обучают на примерах таких атак, чтобы научить их распознавать и игнорировать.

  • Perplexity Filtering (фильтрация входных данных): модель просто отклоняет неестественно сформулированные запросы, которые вызывают у неё высокий уровень «недоумения» (perplexity).

  • Prompt Moderation (модерация промптов): дополнительное использование отдельной, более компактной модели для автоматического распознавания и блокировки вредоносных запросов до их отправки в основную модель.

Состязательные суффиксы демонстрируют, что выравнивание (alignment) моделей — это не разовая задача, а непрерывная «гонка вооружений».

Понимание природы этих уязвимостей — важный шаг к созданию более надёжных и безопасных систем искусственного интеллекта.

Теги:
Всего голосов 1: ↑1 и ↓0+3
Комментарии0

Шанхайская лаборатория искусственного интеллекта (Shanghai AI Lab) представила Intern-S1.

Это мультимодальная модель для научных исследований, которая умеет анализировать текст (включая уравнения, химические формулы и аминокислотные последовательности) и изображения (в том числе фотографии микропрепаратов, схемы и диаграммы).

Модель объединяет несколько специализированных компонентов:

• Vision Transformer (ViT) на базе InternViT-6B для анализа изображений (таких как фотографии микропрепаратов и диаграммы);
• Динамический токенизатор для структурированных данных. Обрабатывает молекулярные формулы (SMILES), первичную структуру белка (FASTA) и другие научные нотации. Он сжимает информацию в среднем на 70% эффективнее традиционных методов.
• Энкодер временных рядов для работы с последовательными числовыми данными, например, данными от сенсоров в длительном научном эксперименте.
• Языковая модель на основе Qwen3 для обработки текстов и интеграции всех типов данных.

Intern-S1 использует архитектуру MoE. Модель содержит 241 млрд общих и 28 млрд активных параметров. Такой подход позволяет эффективно распределять вычислительные ресурсы, активируя только необходимые модули для конкретных задач, что снижает энергопотребление.

В процессе дообучения Intern-S1 использовался метод тонкой настройки supervised fine-tuning (SFT) для мультимодальных задач и обучение с подкреплением (reinforcement learning, RL).

Также применялся новый подход Mixture-of-Rewards (MoR), который комбинирует награды за точность, информативность и верифицируемость ответов, ускоряя обучение в несколько раз.

В общей сложности для обучения Intern-S1 использовалось около 5 триллионов токенов, из которых примерно половина — это высококачественные данные из научных статей в формате PDF.

Сейчас Intern-S1 лидирует среди открытых моделей в бенчмарках ChemBench (83,4%), MathVista (81,5%) и MatBench (75,0%). Также она превосходит конкурентов в тестах MicroVQA (63,9%) и MSEarth-MCQ (65,7%).

Разработчики утверждают, что Intern-S1 особенно эффективна в междисциплинарных задачах, требующих анализа данных из разных областей.

Intern-S1 доступна на платформах Hugging Face и GitHub.

Теги:
Рейтинг0
Комментарии0
1
23 ...

Информация

Сайт
kryptonite.ru
Дата регистрации
Дата основания
Численность
501–1 000 человек
Местоположение
Россия