Pull to refresh

Comments 46

UFO just landed and posted this here

https://gptschat.ru Вот не плохой бесплатный вариант,из минусов тут ChatGPT 3.5, из плюсов - чат бесплатный и не нужна регистрация

CharGPT мне сказал что синус пи пополам равен 0.7 с копейками. Так что спасибо, пока не надо.

UFO just landed and posted this here
UFO just landed and posted this here
Это вы ещё более взрослые вопросы задавать не пытались.
ChatGPTbot: Здравствуйте! Вы подключились к ChatGPT разработки компании OpenAI. Пожалуйста, напишите ваш первый вопрос.

Вы: чему равен логарифм от -1

ChatGPT: Логарифм от отрицательного числа не определен в обычных действительных числах. В комплексных числах можно определить логарифм от отрицательного числа, но это уже задача более продвинутого уровня.

Вы: на какой позиции стоит буква «ц» в слове «дискриминация»

ChatGPT: Буква «ц» стоит на 6-й позиции в слове «дискриминация».

Действительно важный и необходимый в работе бухгалтера инструмент.

Бот в Телеграмме для 3.5

А чего ты тогда не попросишь свой калькулятор рассказать анекдот?

Наверно потому что калькулятор не заявляет об умении рассказывать анекдоты и соответствующей кнопки не имеет.

ChatGPT тоже не заявляет о том, что может супер корректно считать числа. Он этому "научился" побочно, хоть и не очень хорошо. В конце концов, это только лишь языковая модель, она вообще не обязана это уметь.

Числа нельзя считать "супер корректно". Либо правильно, либо неправильно, либо честно признаться, что не можешь. Есть вопросы, на которые ЧатГПТ отвечать отказывается и говорит почему именно — так что совершенно точно это не просто "только лишь языковая модель".

На некоторые вопросы он отвечать отказывается потому, что модель так дообучили (fine-tuning), т.е. это исследователи уже сами искусственно изменили его ответы можно сказать. Про неправильность счёта скорее просто не задумывались, да и к чему тратить на это ресурсы, люди сами должны понимать, что это не калькулятор. Но некоторые до сих пор не понимают...

Тут дело вообще не в этом. Тут дело в том, что математика — это такая дисциплина, в которой распознать ложь проще всего. Вне зависимости от того, был ли дан заведомо неправильный ответ, или же был отказ отвечать на вопрос в принципе. И очевидный вопрос в следющем — так а где гарантия, что по другим дисциплинам ЧатГПТ будет давать релевантные ответы? По логике, гарантии как минимум 0%. Если ЧатГПТ не стесняется врать в точных дисциплинах — то в неточных он будет врать ещё больше только потому, что это сложнее проверить.


И опять же, вы признаёте факт файн-тюнинга. Так а где гарантия, что этот тюнинг направлен на правду и мир во всём мире? Будь я хозяином ГПТ, я бы тюнил его исключительно в своих интересах. Нет причин считать, что его создатели действуют по-другому.

Есть такой раздел математики - нечёткая логика (https://loginom.ru/blog/fuzzy-logic). Нейронные сети в каком-то роде также можно описать подобным образом (что у них нечёткая, но логика). Всё, что я хочу сказать в основном - нужно знать, как они устроены и на основании этого уже думать, на сколько и как можно пользоваться ими. Однако многие, не понимая как на самом деле всё устроено, делают какие-то непонятные выводы.

Ну что тут сказать. Желаю вам получать зарплату начисленной ГПТ по своей нечёткой логике.


P.S. Идею нечёткой логики придумали люди, которые не осилили логику обычную, и все слышанные мною истории о попытках её внедрения на практике кончались фейлами различной степени эпичности. Ну а для "нечётких" случаев в настоящей математике есть многозначная логика, старые добрые непрерывные функции и статистика с теорией вероятностей.

В том то и дело, что не может корректно для всех чисел и операций с ними, вот примеры 1, 2. Хотя в 4-й версии с эти лучше, и рост параметров модели и объемов обучения будет улучшать результаты, но а принципе не решит эту проблему из-за архитектурных ограничений трансформеров. Этот момент очень важный в понимании возможностей этих ЯМ вообще в обобщении, см. ветки с дискуссиями на эту тему 1, 2, чтобы не плодить еще одну. Те же ограничения по определению длины строки. Тексты эти ЯМ генерировать научились, но за формальными выводами нужен постоянный контроль. Переложение этого на мат. пакеты в виде плагинов тоже не гарантирует корректных решений. GPT может просто ошибиться в интерпретации запроса и перевода его на язык задания для плагина.

Когда числа не слишком большие, 2^77 например, чат бот считает так же точно как калькулятор.

Если спросить его как посчитать 2^777 вручную он распишет всё правильно но результат опять посчитает с ошибкой.

И что то похожее происходит с ним при написании и выполнении программ. Сами программы пишет правильно, так что на компьютере получается правильный результат, но когда сам в уме выполняет свои программы то результат может быть не правильным, хотя и похожим на то что должно быть.

Была тема в которой специалисты тестировали математические возможности GPT, а также тема посвященная генерации кода. Выводы противоречивые. Ясно, если задача была в обучающей выборке, или в ней были близкие примеры, то решение может быть точным, или очень близким, если нет, то не корректным.


Задумывались над тем с чем это может быть связано с точки зрения архитектуры GPT?

Да хрен его знает. Попробовал сейчас бота Sage с poe.com он себя идентифицирует как gpt3-turbo.

Программа на питоне

import decimal

count = decimal.Decimal('0')
increment = decimal.Decimal('0.0001')

for i in range(1, 10000001):
  count += increment
  if i <= 10 or i >= 9999991:
    print("Итерация", i, "- Результат: ", count)

    
Выводит моментально и правильно
(ну почти, компьютер не округляет вывод 1000.0 -> 1000.0000)
А компьютер пыхтит довольно долго выполняя эту программу.

Бинг бот дает неправильный результат
в последних 10 итерациях у него результат от 1000 и выше


Итерация 1 - Результат:  0.0001
Итерация 2 - Результат:  0.0002
Итерация 3 - Результат:  0.0003
Итерация 4 - Результат:  0.0004
Итерация 5 - Результат:  0.0005
Итерация 6 - Результат:  0.0006
Итерация 7 - Результат:  0.0007
Итерация 8 - Результат:  0.0008
Итерация 9 - Результат:  0.0009
Итерация 10 - Результат:  0.001
Итерация 9999991 - Результат:  999.9991
Итерация 9999992 - Результат:  999.9992
Итерация 9999993 - Результат:  999.9993
Итерация 9999994 - Результат:  999.9994
Итерация 9999995 - Результат:  999.9995
Итерация 9999996 - Результат:  999.9996
Итерация 9999997 - Результат:  999.9997
Итерация 9999998 - Результат:  999.9998
Итерация 9999999 - Результат:  999.9999
Итерация 10000000 - Результат:  1000.0

А что такое обучающая выборка применительно к чат ботам. Разве их не обучают просто продолжать любой текст. Любой значит вообще любой, и грамотный и малограмотный и логи и программы и записи шахматных партий и нотные записи, всё что угодно должно быть в обучающих датасетах без какой-либо разметки на правильно и не правильно.

Так в разных ботах могут быть подключены различные плагины. Таким усовершенствованиями занимаются, как сами пользователи, так и в OpenAI, включая для интерпретатора Питона. Поэтому такие отличия в ответах. Еще зависит от используемой модели. Речь именно о возможностях самих моделей после обучения, а не возможностях вычислений Питоном или мат. пакетами.


В этой статье смотрели результаты мат. операций используя контекстное обучение. Там есть график точности сложения в зависимости от алгоритма обучения. Однако даже самый подробный пошаговый алгоритм в ~10 % случаев выдает неправильные результаты для больших чисел. И контекстно окно быстро переполняется. Т.е. такой способ обучения больше имеет демонстрационную, а не практическую ценность.


А что такое обучающая выборка применительно к чат ботам. Разве их не обучают просто продолжать любой текст.

Да, но если в ней не будет, скажем, математических примеров, вообще упоминания чисел, то обученная модель не сможет сложить даже 1 + 1, т.к. в ней нет информации об этом, и она будет выводить наиболее близкий по смыслу мусор. Тесты четко показывают, чем больше примеров в обучающей выборке или контекстной подсказке, тем точнее результаты. Если примеров, хотя бы близких, не было, то результаты не правильные. Это связано с тем, что ИНС являются универсальными аппроксиматорами (самое простенькое описание для прямых сетей, для разных архитектур аппроксимирующие возможности различные).


Пример

Для GPT пример может быть такой. Если в обучающей выборке были примеры с числами и они были упорядочены 0, 1, 2, 3, 4, 5, ..., а также примеры операций с ними 0+0=0, 1+1=2, 3+3=6, ..., то сеть сама может произвести частичное обобщение (аппроксимировать) случая 2+2=4, если в обучающей выборке такого примера не было. Но чисел и операций с ними бесконечное множество, для вещественных несчетное, поэтому нельзя привести все примеры, даже с учетом аппроксимирующих свойств сетей. В общем случае, аппроксимация =/= обобщению, как это может делать человек — по конечному числу примеров выработать процедуру для проведения операций с любыми числами. Процедура требует использования циклов, в общем случае рекуррентности, а сети прямого распространения, каковыми являются трансформеры, на это не расчитаны. В этом их архитектурное ограничение к способности обобщать. Для конечных множеств свойств теоретически они могут достигать успеха, для бесконечных нет. Всегда найдется пример, который будет иметь не корректный результат.


Можно даже попробовать проверить этот пример. Найти два больших числа для которых сложение не корректно. Затем в контексте задать несколько близких примеров, по которым чат произвел бы частичное обобщение. Затем вновь проверить результат некорректного примера. Но все это должно делаться с отключенным механизмом сэмплирования (температура = 0), или набираться приличная статистика, если отключить не возможно.

в моем примере кода сам код ботом точно не выполняется, это заняло бы много времени. но результат он все равно показывает точный. что бы получить этот результат моему компьютеру приходится гонять питон несколько минут

Это не показатель. Сервак может быть намного производительнее вашего компа. Использоваться какой-нибудь cython, и тп.

он не может быть быстрее моего компа настолько Ж)

то что он не запускает программы на питоне это вообще 146% факт который легко проверить. с теми же цифрами, в питоне они безразмерные, питон легко может выдать результат от 1111111111111111111111**200 а бот может выдать похожий результат только если ему показать как он выглядит Ж)

что бы получить этот результат моему компьютеру приходится гонять питон несколько минут

Странно… запускал этот код несколько раз в online — не больше 10 сек. Позже посмотрю еще на буке, где стоит питон.


то что он не запускает программы на питоне это вообще 146%

r = 0.1 + 0.7


if r > 0.8:
print('r > 0.8')
elif r < 0.8:
print('r < 0.8')
else:
print('r = 0.8')

да что то странное. то ли у меня питон какой то не такой, то ли процессор совсем дохлый. на впс от оракла с 1 серверным амд ядром выполняется за пару секунд

хотя другие бенчмарки показывают преимущество у моего процессора. видимо с питоном что то. у меня версия 3.11 в которой обещали существенное ускорение, но видимо что то пошло не так. на сервере версия 3.10

Но в любом случае меняем 10млн итераций на милилард и бот по прежнему "выполняет" программу мгновенно а комп выполняет ее бесконечно долго.

Дал код проверки запуска Питона.
Если не запускается, то в обучающей выборке модели были примеры такого кода, или близкого, а также результаты их исполнения. Тут нет чудес)

С вашими запросами к WolframAlpha надо, или в тот же chatGPT (платную версию) установить виджет от WolframAlpha

Специалист без доступа к ChatGPT сегодня сродни бухгалтеру XX века без компьютера. Конечно, он может работать, но не так эффективно.

Смелое заявление)

я уже получил тоступ с грузинской смс, но все равно полезно было ознакомиться с альтернативами

Почему все эти чаты считают, что сейчас 2021 год ?

UFO just landed and posted this here

Вот бы кто вместо простого перечисления реально проверил в каких из этих сервисов настоящая 4, в каких 3.5 а в каких просто запущена какая нибудь викунья 13b.

Что касаемо "утечки" письма из гугла, все эти модели на основе Ламы, только только пытаются подобраться к gpt3.5, до 4 им как до луны, всем кто пробовал сравнивать модели 7b, 13b и 30b знает, что размер имеет значение и качество отличается заметно даже без всяких тестов, просто по ощущениям от общения виден прогресс. Поэтому пока опенсоурсу дообучающему 13b модельки за 100$ тягаться с моделями 100+ млрд. (со стоимостью обучения в сотни тысяч $) не светит, по крайней мере в ближайшее полгода-год

Была статья недавно на хабре.

Хотя ChatGPT может генерировать текст, который кажется натуральным, иногда предложения могут быть неправильными и нелогичными.

Само это предложение "идентично натуральному", поскольку уместнее было бы написать "кажется естественным". Полагаю, внутри там natural, который нейросетка ничтоже сумняшеся перевела.

Собственно, та же проблема, которая пока не позволяет заменить кожаного переводчика автоматическими сервисами.

Специалист без доступа к ChatGPT сегодня сродни бухгалтеру XX века без компьютера

Если этот специалист не может наладить себе полноценный доступ к чатботу (сам, или попросив/наняв программиста), то что ж это за специалист такой ?

А попробовать бесплатно можно ещё и через расширение "Merlin" для Хром - там лимит 5 вопросов к гпт-4 (в сутки) либо 51 вопрос к гпт-3.5 (в сутки)

Из плюсов то, что демо-версию можно использовать вообще без регистрации

Похоже, уже нет.

poe.com - пускают русских. Бот Sage - gpt3-turbo, вроде бы совсем безлимитный. можно создавать своих ботов (просто указать что и как он должен делать, типа ты должен говорить только на тему линукса в стиле информационной системы, если в запросе не упомянули какой то конкретный сорт линукса то говори про арчлинукс, итд)

bing.com - если зайти через заграничный впн и быть залогиненым в микрософт аккаунт то будет доступен чат с бинг ботом. он интересен тем что его пускают в интернет так что он немножко гуглит перед ответом и может выдавать актуальную информацию а не только то что было до 2021 года

Play24, то который без абонентской, через пару месяцев спишет с баланса ещё 5 злотых, если вы не будете покупать пакеты с интернетом и звонками

Первый бот из этой статьи - ChadGPT. Снова псевдо-chatgpt. Сломался на одном вопросе про видеокарту... В мусорку.
Первый бот из этой статьи - ChadGPT. Снова псевдо-chatgpt. Сломался на одном вопросе про видеокарту... В мусорку.

сломался? он просто не знает что происходило после 2021 года

Sign up to leave a comment.

Articles