Как стать автором
Обновить

Пользователь научил ChatGPT генерировать ключи активации для ОС Windows 95

Время на прочтение 2 мин
Количество просмотров 22K
Всего голосов 27: ↑22 и ↓5 +17
Комментарии 26

Комментарии 26

Не сможет. Никто не сможет сгенерировать сто биткоинов быстрее, чем по 6.25BTC за один блок, который с текущей скоростью генерируется раз в десять минут. Хотя нет, смочь (очень сильно теоретически) он сможет - если вдруг придумает какой-то супер-быстрый способ считать хэши гораздо быстрее, чем весь мир, но только на какое-то время. Потом сложность подстроится, и кроме ChatGPT со своим секретным алгоритмом никто вообще не сможет намайнить биткоины.

ок, придумай новый вариант биткоина с лучшими свойствами, зарезервируй для меня миллион монет и заставь мир перейти на новую версию

сначало ты ему рассказываешь биографию сатоси

Пройдёмте, гражданин.

А через него правда можно крипту фармить?

Крипту и на бумажке можно майнить. нейронеа будет делать это плохо. Она плохо считает формальную математику

Как говорится, делай это по десять минут в день и станешь миллионером: https://www.youtube.com/watch?v=y3dqhixzGVo

это-шедевр.jpg

Забавно в данной ситуации что крупнейший инвестор в OpenAI сам Microsoft :)

После нескольких попыток Enderman выяснил, что ChatGPT может корректно генерировать 1 правильный ключ из 30 попыток.

Если учесть, что для вся математика в ключе сводится к тому, что подобрать пять цифр, сумма которых делится на 7, даже равномерный рандом сможет корректно генерировать 1 ключ из 7 попыток.

Если равномерный рандом вообще по всем полям - то нет, надо еще, чтобы день был не более 366. А если задать все цифры конкретными значениями, а подбирать только эти пять цифр - то да.

Шаблон названий статей до конца года - "Пользователь научил GPT /% маловажная фигня %/

Ага и скоро местные инфоцыгане подтянутся с марафонами и кейсами, а-ля:

  • чатГПТ и правильное дыхание маткой

ChatGPT может корректно генерировать 1 правильный ключ из 30 попыток. 

какой-то криптомайнинг на минималках (сарказм)

Насколько натянутый результат.

Интересно будет проверить, лучше ли справляется GPT-4 с этой задачей. Здесь, как видно по цвету аватарки, был 3.5.

Скормил ChatGPT шаблон и попросил нарандомить цифр в середине. В чем революционное открытие-то? Вот если бы он заставил его ломануть шаблон, это было бы достижение. А пока пользователь создал только еще одну причину поорать о необходимости ограничений.

То есть, теперь можно не покупать Windows95?

Статья ради букв. В чем ее ценность? Очевидно, что ИИ можно просить генерировать последовательности цифр по шаблонам. Я так просил ИИ мне регулярку сгенерировать показав ему пример строк и какие токены в ней есть. Круто конечно но революции тут нет.

После нескольких попыток Enderman выяснил, что ChatGPT может корректно генерировать 1 правильный ключ из 30 попыток.

Это забавно, учитывая что для Windows 95 были действительны ключи вроде 111-1111111 и 000-0000000.

Это был вроде как офис-95, а не винды. И ключ для офиса был 1114-1111111.

Ключи типа 111-1111111 были для коробочных изданий для розницы.

Наконец-то, AI Keygen

Почему ещё нет новости, что кто-то научился использовать чат как калькулятор?

ВНЕЗАПНО

Зарегистрируйтесь на Хабре , чтобы оставить комментарий

Другие новости

Истории