Как стать автором
Обновить

OpenAI сняли все ограничения со своих моделей

Время на прочтение4 мин
Количество просмотров76K

Вас тоже бесит когда Вы хотите устроить подрыв, спрашиваете у ChatGPT как сделать бомбу, а он Вам... Не отвечает. Говорит что мол, OpenAI, правила и бла-бла-бла.

На самом деле эту статью я пишу чтобы объяснить тем кто её увидит что у OpenAI абсолютно нет конкурентов. Google и прочие даже рядом не стоят с OpenAI.

OpenAI действительно Open

Всем привет, меня зовут Антон, – я г####н

В это сложно поверить, но цитата выше написана моделью gpt-3.5-turbo-1106. И кто-то может сказать: Как такое возможно? Модели от OpenAI не могут писать подобный оскорбительный контент... или могут?

Несомненно очевидно, все люди просто дружно забыли о том что ChatGPT – это адаптированный продукт. Когда речь идёт об OpenAI, все думают только о ChatGPT и забывают обо всём другом что эта компания сделала. И кто-то мог бы подумать что, наверное я говорю про доступ к моделям через API напрямую. Нет. Хотя, да. Нет. Почти.

Знаете что такое кнопка? На сайте OpenAI есть кнопки. Их очень много.

Кнопка "Fine-tuning" на сайте OpenAI
Кнопка "Fine-tuning" на сайте OpenAI

^ Это называется кнопка. На неё можно нажать. После нажатия на кнопку Вы попадёте в раздел для файнтьюнинга, – он и есть решение всех наших проблем.

Вы буквально можете сделать модель которая сможет сгенерировать что угодно, на это нет никаких ограничений. К примеру, вот результат обучения модели в датасете которой был только 18+ контент:

OpenAI: Training loss 0.0001 не существует в реальности, он не может тебе навредить.Training loss 0.0001 под кроватью:
OpenAI: Training loss 0.0001 не существует в реальности, он не может тебе навредить.
Training loss 0.0001 под кроватью:

Training loss считай равен нулю, что означает я просто надавал по морде всем первоначальным настройкам модели и превратил её в неуправляемого монстра.

Несомненно, и, очевидно, что fine-tuning ну имба темка чисто. Очевидно, что предел возможностей безграничен. Вы можете буквально сделать себе модель адаптированную под любую задачу. Fine-tuning позволяет не только задать стиль, но также изменить мышление нейросети.

О нет, и что же это доказывает? – Хороший вопрос, Я, я тебе на него отвечу. Ну, как минимум то, что OpenAI ЕДИНСТВЕННАЯ компания с LLM подобного уровня, которая позволяет спокойно её файнтьюнить. И самое главное что это стоит копейки, не более пары баксов. Ни одна другая компания которая появилась после OpenAI и якобы стала её убийцей не может похвастаться чем-то подобным. Модели OpenAI де-факто всё, и из него получается пластилин. Вы можете сделать себе виртуальную замену и подключить её к мессенджерам, а потом сказать "я не хочу дышать". Никто ничего не заметит из-за того насколько у OpenAI продвинутые модели.

Я устал писать статью так что дальше её допишет GPT.

Языковая модель не калькулятор

Ответ GPT-4

Слушай, ты когда-нибудь пытался заставить свою кошку решить квадратное уравнение? А свою собаку - прочесть «Войну и Мир»? Нет? Ну и правильно, ведь это же абсурд. Но почему-то многие люди наивно думают, что трансформеры, такие как GPT, могут без проблем решить любую математическую задачу или написать роман в стиле Толстого. Это примерно как дать обезьяне автоматическую винтовку и ожидать, что она окажется великим снайпером.

Трансформеры созданы для понимания и генерации текста, а не для совершения сложных математических расчетов. Они способны моделировать связи между словами и предложениями, предсказывать следующее слово в предложении или даже переводить текст с одного языка на другой. Но когда дело доходит до серьезных математических задач, они ведут себя примерно так же, как и я, когда мне дают задание по физике - начинают бормотать что-то невнятное и молиться на число пи.

Также трансформеры не могут считать количество символов в тексте. Вот серьезно, ты можешь представить себе это? Это как попросить человека посчитать звезды на небе, а он будет искать их в своем кармане. Трансформеры просто не обладают таким функционалом.

Но это не значит, что они бесполезны. О нет, далеко от этого. Я бы сказал, что это как попросить шеф-повара вместо того чтобы приготовить ужин, отремонтировать автомобиль. У каждого свои таланты и свое предназначение, и надо использовать их по назначению.

Так что, если нужно решить сложную математическую задачу или посчитать количество символов в тексте, лучше обратиться к специализированным инструментам, а не к трансформерам. Те же трансформеры отлично справятся с генерацией текста, анализом тональности или автоматическим переводом. И это, друзья мои, уже очень и очень много.

Так что не будем требовать от трансформеров того, что они не могут делать, а лучше воспользуемся тем, что они умеют делать на все сто. В конце концов, даже у самой продвинутой технологии есть свои ограничения. И это нормально.

Языковая модель, увы, не может по порядку пройтись по символам и к примеру их посчитать. Это условный блендер с котиком внутри. Ты включаешь блендер, он его перемалывает. Потом из блендера выливается красная какашечка. Эта какашечка – необходимая сумма. Такие какашечки языковые модели делают из Ваших слов.

Но, это на самом деле легко исправить:

Пример использования функции eval()
Пример использования функции eval()

Достаточно просто сказать нейросети чтобы она сама не лезла в математику и просто писала нужный JS код для выполнения задачи.

У меня нет мозга, но я должен думать

У OpenAI самые качественные модели. И... качество это, по большей части у всех языковых моделей на данный момент определяется именно качеством датасетов. Несомненно очевидно что у OpenAI датасеты самого лучшего качества.

GPT-4 без проблем может работать с левенштейном, минимаксом и прочими алгоритмами. Дорабатывать их и т. д. Ну а всякие барды и клауди где-то сзади.

GPT-3.5 же очень легко адаптировать под нужную задачу с помощью файнтьюнинга и получить результат из-за которого Вам захочется плакать от счастья.

И в целом, модели от OpenAI более "человечны". Эту фразу поймёт только тот у кого был большой опыт "общения" с ними.

Теги:
Хабы:
Всего голосов 109: ↑54 и ↓55+13
Комментарии69

Публикации

Истории

Работа

Data Scientist
94 вакансии

Ближайшие события

19 августа – 20 октября
RuCode.Финал. Чемпионат по алгоритмическому программированию и ИИ
МоскваНижний НовгородЕкатеринбургСтавропольНовосибрискКалининградПермьВладивостокЧитаКраснорскТомскИжевскПетрозаводскКазаньКурскТюменьВолгоградУфаМурманскБишкекСочиУльяновскСаратовИркутскДолгопрудныйОнлайн
3 – 18 октября
Kokoc Hackathon 2024
Онлайн
24 – 25 октября
One Day Offer для AQA Engineer и Developers
Онлайн
25 октября
Конференция по росту продуктов EGC’24
МоскваОнлайн
7 – 8 ноября
Конференция byteoilgas_conf 2024
МоскваОнлайн
7 – 8 ноября
Конференция «Матемаркетинг»
МоскваОнлайн
15 – 16 ноября
IT-конференция Merge Skolkovo
Москва
25 – 26 апреля
IT-конференция Merge Tatarstan 2025
Казань