Филатов Антон @positroid
Web-архитектор
Information
- Rating
- 2,001-st
- Location
- Липецк, Липецкая обл., Россия
- Date of birth
- Registered
- Activity
Specialization
Backend Developer, Software Architect
Lead
PHP
Symfony
Elasticsearch
CMS «1С-Bitrix»
Web-архитектор
ЕМНИП вы сами выбираете карту, которая в конкретном банке будет использоваться для зачисления платежей, при включении СБП
Что значит в следубщей версии прикрутят) Там уже есть питон и для даже банального подсчета суммы чисел со времен 4 версии она пишет программу на питоне и считает (если не запретить это действие и если речь о понятной задаче вроде посчитай сумму оценок подзадач).
ChatGPT-4o отвечает, что это 3.5
>Claude в версии Opus опережает даже GPT-4
А есть результаты MMLU для GPT-4-Turbo-2024-04-09?
86.4% gpt4 показывал в 2023 году, указанная таблица взята судя по всему времен релиза Opus.
С тех пор модель обновлялась и стала лучше, по крайней мере в чатбот арене вернула себе первое место.
>Даже неделю назад мне нравились 50% генераций, а сейчас качественных 20%, но не то, что мне нужно, хотя запрос тот же.
Мне кажется тут есть еще фактор насмотренности (наслушанности), могу сказать то же, что и вы, но у меня это случилось месяц назад после оформления PRO и большого количества экспериментов - через пару дней начал критичнее относиться к оценке результатов генераций
Тесты вообще песня, скармливаешь целевой файл с классом и код смежных сущностей, которые в нем используются - и получаешь почти всегда готовый к использованию класс тестов, можно дальше просить 100% покрытия или добавлять кейсы тоже в режиме чата (ChatGPT 4, symfony)
Речь же не только о стоимости, у моделей есть окно контекста - оно всегда измеряется именно в токенах, английский текст сжимается в токены в несколько раз эффективнее.
Если задача не требует каких-то объемов - да, тут разницы нет.
Было исследование про это - https://arxiv.org/pdf/2403.04792.pdf
Если вкратце - для современных моделей (в статье GPT-4 и PaLM) лучше использовать язык оригинала (т.е. язык, носителем которого вы являетесь), чем заниматься переводами туда-обратно.
Но на практике есть еще вопрос токенизации и контекста - пи использовании английского контекст вмещает в разы больше информации
Все же размер контекста в таких задачах очень сильно решает. 3.5 просто забывает все вводные и чаще пишет ерунду (объем контекста у 4 версии в ~8 раз больше).
И еще в ~5 раз уменьшает объем контекста модели общение на русском языке.
Причины выбора версии 3.5 более чем понятны, но все же, аутуальные выводы можно делать только на актуальных моделях
Примерно так же, как пахла оферой концепция возвращаемой ракеты лет 20 назад?
Еще бы в статье была ссылка и инструкция, чтобы самому потыкать..
Например, такая:
1. Копируем json
2. Вставляем в https://geojson.io/
А за статью спасибо!
Простите за некропостинг, но я верно понял, что copilot был обучен на вашем коде из приватного репозитория и по одноименному названию скрипта сконвертировал этот код в другой язык?
У меня сразу возник вопрос валидации голосов - когда/если сервис наберет популярность - первый кто прибежит оставлять отзывы - застройщики
Вы хотя бы сноску оставьте, что в продакшне так делать ни в коем случае нельзя и эта инструкция исключительно для локального окружения / в целях изучения...
Есть еще фильм со схожей завязкой - "Петля времени"
То есть количество электродов уже не проблема, проблема материаловедение?
Насколько помню первые X презентаций neuralink были посвящены в том числе этому и в том числе хантингу людей, которые в этом разбираются. Так что тут скорее люди как раз вполне понимают ваши опасения.
Аналогия с наушниками и бревном также неверна. толщина вводимой нити 4-6 мкм, размер нейрона от 4 до 150 мкм.
Бионические протезы, работающие на единичных сенсорах? Полной замены не обеспечить, но частично вернуть функциональность думаю возможно.
Почитайте про json injection. Отказ от shell это, конечно, более безопасно, т.к. теперь нельзя выполнять произвольные команды на сервере, но в скрипте все еще есть возможность отправлять через curl что угодно в api chatGpt, эксплуатируя эту уязвимость.
А откуда информация про "без воды"? Есть вода, но, как оказалось, в недостаточном количестве.
Достаточно шаблонно построены запросы, есть гипотеза, что на любое
Is C:\ProgramData\foo.exe an indicator of compromise?
будет тот же ответ. Иными словами, во всех вопросах уже содержится ответ на вопрос, chatGpt его просто дополняет.