Comments 46
https://koala.sh/ - вот ещё бесплатный GPT3.5 на нейросети Koala
https://gptschat.ru Вот не плохой бесплатный вариант,из минусов тут ChatGPT 3.5, из плюсов - чат бесплатный и не нужна регистрация
CharGPT мне сказал что синус пи пополам равен 0.7 с копейками. Так что спасибо, пока не надо.
ChatGPTbot: Здравствуйте! Вы подключились к ChatGPT разработки компании OpenAI. Пожалуйста, напишите ваш первый вопрос.
Вы: чему равен логарифм от -1
ChatGPT: Логарифм от отрицательного числа не определен в обычных действительных числах. В комплексных числах можно определить логарифм от отрицательного числа, но это уже задача более продвинутого уровня.
Вы: на какой позиции стоит буква «ц» в слове «дискриминация»
ChatGPT: Буква «ц» стоит на 6-й позиции в слове «дискриминация».
Действительно важный и необходимый в работе бухгалтера инструмент.

Бот в Телеграмме для 3.5
А чего ты тогда не попросишь свой калькулятор рассказать анекдот?
ChatGPT тоже не заявляет о том, что может супер корректно считать числа. Он этому "научился" побочно, хоть и не очень хорошо. В конце концов, это только лишь языковая модель, она вообще не обязана это уметь.
Числа нельзя считать "супер корректно". Либо правильно, либо неправильно, либо честно признаться, что не можешь. Есть вопросы, на которые ЧатГПТ отвечать отказывается и говорит почему именно — так что совершенно точно это не просто "только лишь языковая модель".
На некоторые вопросы он отвечать отказывается потому, что модель так дообучили (fine-tuning), т.е. это исследователи уже сами искусственно изменили его ответы можно сказать. Про неправильность счёта скорее просто не задумывались, да и к чему тратить на это ресурсы, люди сами должны понимать, что это не калькулятор. Но некоторые до сих пор не понимают...
Тут дело вообще не в этом. Тут дело в том, что математика — это такая дисциплина, в которой распознать ложь проще всего. Вне зависимости от того, был ли дан заведомо неправильный ответ, или же был отказ отвечать на вопрос в принципе. И очевидный вопрос в следющем — так а где гарантия, что по другим дисциплинам ЧатГПТ будет давать релевантные ответы? По логике, гарантии как минимум 0%. Если ЧатГПТ не стесняется врать в точных дисциплинах — то в неточных он будет врать ещё больше только потому, что это сложнее проверить.
И опять же, вы признаёте факт файн-тюнинга. Так а где гарантия, что этот тюнинг направлен на правду и мир во всём мире? Будь я хозяином ГПТ, я бы тюнил его исключительно в своих интересах. Нет причин считать, что его создатели действуют по-другому.
Есть такой раздел математики - нечёткая логика (https://loginom.ru/blog/fuzzy-logic). Нейронные сети в каком-то роде также можно описать подобным образом (что у них нечёткая, но логика). Всё, что я хочу сказать в основном - нужно знать, как они устроены и на основании этого уже думать, на сколько и как можно пользоваться ими. Однако многие, не понимая как на самом деле всё устроено, делают какие-то непонятные выводы.
Ну что тут сказать. Желаю вам получать зарплату начисленной ГПТ по своей нечёткой логике.
P.S. Идею нечёткой логики придумали люди, которые не осилили логику обычную, и все слышанные мною истории о попытках её внедрения на практике кончались фейлами различной степени эпичности. Ну а для "нечётких" случаев в настоящей математике есть многозначная логика, старые добрые непрерывные функции и статистика с теорией вероятностей.
В том то и дело, что не может корректно для всех чисел и операций с ними, вот примеры 1, 2. Хотя в 4-й версии с эти лучше, и рост параметров модели и объемов обучения будет улучшать результаты, но а принципе не решит эту проблему из-за архитектурных ограничений трансформеров. Этот момент очень важный в понимании возможностей этих ЯМ вообще в обобщении, см. ветки с дискуссиями на эту тему 1, 2, чтобы не плодить еще одну. Те же ограничения по определению длины строки. Тексты эти ЯМ генерировать научились, но за формальными выводами нужен постоянный контроль. Переложение этого на мат. пакеты в виде плагинов тоже не гарантирует корректных решений. GPT может просто ошибиться в интерпретации запроса и перевода его на язык задания для плагина.
Была тема в которой специалисты тестировали математические возможности GPT, а также тема посвященная генерации кода. Выводы противоречивые. Ясно, если задача была в обучающей выборке, или в ней были близкие примеры, то решение может быть точным, или очень близким, если нет, то не корректным.
Задумывались над тем с чем это может быть связано с точки зрения архитектуры GPT?
Так в разных ботах могут быть подключены различные плагины. Таким усовершенствованиями занимаются, как сами пользователи, так и в OpenAI, включая для интерпретатора Питона. Поэтому такие отличия в ответах. Еще зависит от используемой модели. Речь именно о возможностях самих моделей после обучения, а не возможностях вычислений Питоном или мат. пакетами.
В этой статье смотрели результаты мат. операций используя контекстное обучение. Там есть график точности сложения в зависимости от алгоритма обучения. Однако даже самый подробный пошаговый алгоритм в ~10 % случаев выдает неправильные результаты для больших чисел. И контекстно окно быстро переполняется. Т.е. такой способ обучения больше имеет демонстрационную, а не практическую ценность.
А что такое обучающая выборка применительно к чат ботам. Разве их не обучают просто продолжать любой текст.
Да, но если в ней не будет, скажем, математических примеров, вообще упоминания чисел, то обученная модель не сможет сложить даже 1 + 1, т.к. в ней нет информации об этом, и она будет выводить наиболее близкий по смыслу мусор. Тесты четко показывают, чем больше примеров в обучающей выборке или контекстной подсказке, тем точнее результаты. Если примеров, хотя бы близких, не было, то результаты не правильные. Это связано с тем, что ИНС являются универсальными аппроксиматорами (самое простенькое описание для прямых сетей, для разных архитектур аппроксимирующие возможности различные).
Для GPT пример может быть такой. Если в обучающей выборке были примеры с числами и они были упорядочены 0, 1, 2, 3, 4, 5, ..., а также примеры операций с ними 0+0=0, 1+1=2, 3+3=6, ..., то сеть сама может произвести частичное обобщение (аппроксимировать) случая 2+2=4, если в обучающей выборке такого примера не было. Но чисел и операций с ними бесконечное множество, для вещественных несчетное, поэтому нельзя привести все примеры, даже с учетом аппроксимирующих свойств сетей. В общем случае, аппроксимация =/= обобщению, как это может делать человек — по конечному числу примеров выработать процедуру для проведения операций с любыми числами. Процедура требует использования циклов, в общем случае рекуррентности, а сети прямого распространения, каковыми являются трансформеры, на это не расчитаны. В этом их архитектурное ограничение к способности обобщать. Для конечных множеств свойств теоретически они могут достигать успеха, для бесконечных нет. Всегда найдется пример, который будет иметь не корректный результат.
Можно даже попробовать проверить этот пример. Найти два больших числа для которых сложение не корректно. Затем в контексте задать несколько близких примеров, по которым чат произвел бы частичное обобщение. Затем вновь проверить результат некорректного примера. Но все это должно делаться с отключенным механизмом сэмплирования (температура = 0), или набираться приличная статистика, если отключить не возможно.
что бы получить этот результат моему компьютеру приходится гонять питон несколько минут
Странно… запускал этот код несколько раз в online — не больше 10 сек. Позже посмотрю еще на буке, где стоит питон.
то что он не запускает программы на питоне это вообще 146%
r = 0.1 + 0.7
if r > 0.8:
print('r > 0.8')
elif r < 0.8:
print('r < 0.8')
else:
print('r = 0.8')
С вашими запросами к WolframAlpha надо, или в тот же chatGPT (платную версию) установить виджет от WolframAlpha
я уже получил тоступ с грузинской смс, но все равно полезно было ознакомиться с альтернативами
Почему все эти чаты считают, что сейчас 2021 год ?
Вот бы кто вместо простого перечисления реально проверил в каких из этих сервисов настоящая 4, в каких 3.5 а в каких просто запущена какая нибудь викунья 13b.
Что касаемо "утечки" письма из гугла, все эти модели на основе Ламы, только только пытаются подобраться к gpt3.5, до 4 им как до луны, всем кто пробовал сравнивать модели 7b, 13b и 30b знает, что размер имеет значение и качество отличается заметно даже без всяких тестов, просто по ощущениям от общения виден прогресс. Поэтому пока опенсоурсу дообучающему 13b модельки за 100$ тягаться с моделями 100+ млрд. (со стоимостью обучения в сотни тысяч $) не светит, по крайней мере в ближайшее полгода-год
Хотя ChatGPT может генерировать текст, который кажется натуральным, иногда предложения могут быть неправильными и нелогичными.
Само это предложение "идентично натуральному", поскольку уместнее было бы написать "кажется естественным". Полагаю, внутри там natural, который нейросетка ничтоже сумняшеся перевела.
Собственно, та же проблема, которая пока не позволяет заменить кожаного переводчика автоматическими сервисами.
Специалист без доступа к ChatGPT сегодня сродни бухгалтеру XX века без компьютера
Если этот специалист не может наладить себе полноценный доступ к чатботу (сам, или попросив/наняв программиста), то что ж это за специалист такой ?
А попробовать бесплатно можно ещё и через расширение "Merlin" для Хром - там лимит 5 вопросов к гпт-4 (в сутки) либо 51 вопрос к гпт-3.5 (в сутки)
Спасибо за статью!
Гора всевозможных альтернатив: https://github.com/LiLittleCat/awesome-free-chatgpt/blob/main/README_en.md
Microsoft Bing https://www.bing.com/ через браузер Edge или приложение на телефоне, GPT-4 бесплатно.
Не Россия и не Белоруссия тут https://account.microsoft.com/profile
Play24, то который без абонентской, через пару месяцев спишет с баланса ещё 5 злотых, если вы не будете покупать пакеты с интернетом и звонками

Бесплатные фронтенды к ChatGPT