Мой коммент скорее про то, что у email нет канонического вида. У каждого сервера свои правила - тот же гугл - наверное единственный, кто точку в адресе игнорирует. А по поводу нормализации для ДБ - я, как пользаватель, ожидаю что user+test1@gmail.com и user+test2@gmail.comкак раз два разных адреса с точки зрения сервиса. Ну и как бы email-адреса авторизации скрывать принято. А если сервис боится, что пользователь зарегистрирует два аккаунта, то ему придётся с этим смериться. Пользователь может создать второй ящик.
Правильное решение: перед сохранением в базу данных email нужно нормализовать — привести к каноническому виду.
Неправильное. RFC (не вспомню какой, правда) запрещает преобразование email адреса где-либо, кроме сервера-владельца. Если вы хотите следовать RFC - вы должны принять адрес как его вам дали.
Я не пробовал конкретно ChatGPT, но все модели что я пробовал (локальные и нет) теряют когерентность после ~8к токенов контекста. Они либо начинают зацикливаться на одной фразе и повторять его из сообщения в сообщение, либо откапывают инструкцию из истории и следуют ей (несмотря на указания больше не следовать), либо просто несут отборную чушь.
При этом до 8к контекста они работают... приемлемо (не хорошо, а именно приемемо). И вот к слову, именно на тот тип вопросов, что вы задаёте, лично я мне быстрее найти самому, чем спрашивать ИИ и потом разбираться в его галлюцинациях (если я ищу чем угодно кроме Гугла, их поиск последнее время неописуемо ужасен)
Только у границы, да и не стоит оно того. Симку в том числе оплачивать надо, что не тривиально в нынешних условиях.
У нас возможность подключения к мобильной сети Польши или Литвы скорее как проблема рассматривается, когда телефон в международный роуминг сам уходит. в 2010х обычной практикой было отключать автоматический поиск и выбор сети.
В Калининградской области всё, что заблокировано - действительно заблокировано. У нас тут всего 4 линка с внешним миром, если я не ошибаюсь, и все они управляются Ростелекомом.
Всё равно когерентного диалога не получается. Модель обычно слишком зацикливается на том, что вытащено из базы автоматом, даже если информация не релевантна.
Ну кстати Vedal упомянул, что Neuro зачастую работает бес присмотра потому что ему влом присматривать, но по условиям платформы он должен сказать, что присматривает. Но крышу ей периодичести рвёт всё так же. Она в принципе делает то, что и все остальные сети: "Выглядит реалистично"
Это точно проблема моделей. Разные ломаются по разному, но если вы хотите "кошкожену" с постоянной памятью - не получится. (я тут шучу, но там у них дефолтный персонаж пользователя - "Romanian catgirl")
В "агентах" что я пытался построить сам - крыша у AI едет так же быстро, если не быстрее.
У них инсталлер есть, по крайней мере для самого SillyTavern. Но не ожидайте многого, персонаж действует реалистично пока внезапно AI на ровном месте не ломается и не начинает пороть чушь или просто повторять по кругу уже сказанное. Обычно на 10-11 реплике в чате.
Ок, а как должен тогда выглядить пайплайн по вашему мнению?
В моих тестах AI не смог даже нормально DTO на основе примера json'а составить, следуя указанному стилю. То, что он писал не распарсило бы json-пример, а в ответ на указание ошибки он меня уверял, что всё в порядке и должно работать. Конкретно он автоматом snake_сase в camelCase конвертил. Чтобы это работало нужно было либо прописать имена полей вручную, либо передать параметр в парсер. О втором варианте я на тот момент не знал, AI мне о нём не рассказал, и более того, в коде-примере использования не передавал его сам.
И того, на DTO с AI убито 30 минут времени, вручную писать - 5-10.
Вот да, такой же опыт. Мы либо не те языки используем, либо стандарт качества у "вайбкодеров" слишком низкий. Во всех экспериментах быстрее было бы сделать самому.
Но да, вау-эффект рабочая программа написанная с первого раза вызывает (подумаешь, она трижды на одно и тоже событие одним и тем же методом подписалась...)
ИИ текст попадает в этакий uncanny valley для, но для текста. Он слишком... сложный и правильный при минимальной концентрации смысла, что ли? Из разряда "если в предложении могут присутствовать все части речи - я включу их все!". Ии не написал бы "предположу" или "Чутьё!" например. Он бы написал "Я могу предположить," и "Вот это чутьё!".
Впрочем понятия не имею как их можно купить, ссылка для примера. Linus Tech Tips ревьюили её, говорят, что они им за 4000$ досталась https://www.youtube.com/watch?v=HZgQp-WDebU
Учитывая, насколько скатился поиск Гугла - ни разу не удивлён. Давно перешёл на duckduckgo как основной поиск (bing тоже неплох для запросов связанных с программированием)
Проблема в ИИ состоит в том, что он крайне неточен. Он не понимает что важно, а что нет. И он врёт не заикаясь. В моих экспериментах (разных, от программирования до графомании) точность выполнения задач в среднем процентов 60. Причём результат варьируется от идеального до полного бреда замаскированного под хорошо написанным текстом (худший исход, имхо).
Могу предположить, что все эти сообщения были написаны от вашего имени? Если да, возможно люди просто стеснялись послать вас нафиг до того, как вы рассказали об ИИ, за то, что вы генерировали бессмысленную рабочую нагрузку.
Ещё люди ленивы, мы не начинаем давать tl;dr задачи если только не считаем что либо собеседник не прочитал задачу, либо считаем, что он её не понял. Собеседник может пойти и прочитать её сам, без испорченного телефона, в конце концов. И в результате пересказ тоже может быть принят как оскорбление, что автор думает что получатель сообщения - дурак.
В общем моё личное мнение, что автоматизированные системы должны быть отделены от личного общения. Выкиньте tl;dr перенесите на специальный аккаунт, ограничьте количество сообщений, сократите длину текста и сделайте его менее "человечным" (лучше даже совсем без ИИ) - и это всё может быть даже заработает. (впрочем вы пишете, что именно это вы и сделали в конце)
Я сделал примитивный скрипт на Python, который использует возможности DeepSeek, притворяется современным менеджером и «толкает» зависшие задачи в Jira
Я придерживаюсь того мнения, что использовать AI просто для генерации ответа на вопрос, когда ответ известен без ИИ - это неуважение к людям. ИИ нужен там, где что-то нужно "понять". В приведённом же примере достаточно было бы робота, который бы написал "критическая задача не закрыта в течении X дней, требуется обновление"
ИИ "отравляет" общение: вместо того, чтобы понять что это автоматизированное сообщение и проблема с высокой долей вероятности чисто техническая или уже обсуждённая - нужно вчитываться и тратить время и усилия на осознание написанного (а ИИ отличаются высоким количеством "воды" в тексте). В результате когда разработчику напишет настоящий человек с настоящей проблемой - разработчик проигнорирует его как шум.
А зачем их вообще проверять? Я, как пользователь, ожидаю, что сервис их будет обрабатывать именно как два разных ящика.
Мой коммент скорее про то, что у email нет канонического вида. У каждого сервера свои правила - тот же гугл - наверное единственный, кто точку в адресе игнорирует.
А по поводу нормализации для ДБ - я, как пользаватель, ожидаю что
user+test1@gmail.comиuser+test2@gmail.comкак раз два разных адреса с точки зрения сервиса. Ну и как бы email-адреса авторизации скрывать принято.А если сервис боится, что пользователь зарегистрирует два аккаунта, то ему придётся с этим смериться. Пользователь может создать второй ящик.
Неправильное. RFC (не вспомню какой, правда) запрещает преобразование email адреса где-либо, кроме сервера-владельца. Если вы хотите следовать RFC - вы должны принять адрес как его вам дали.
Просто пошлите письмо
Я не пробовал конкретно ChatGPT, но все модели что я пробовал (локальные и нет) теряют когерентность после ~8к токенов контекста. Они либо начинают зацикливаться на одной фразе и повторять его из сообщения в сообщение, либо откапывают инструкцию из истории и следуют ей (несмотря на указания больше не следовать), либо просто несут отборную чушь.
При этом до 8к контекста они работают... приемлемо (не хорошо, а именно приемемо).
И вот к слову, именно на тот тип вопросов, что вы задаёте, лично я мне быстрее найти самому, чем спрашивать ИИ и потом разбираться в его галлюцинациях (если я ищу чем угодно кроме Гугла, их поиск последнее время неописуемо ужасен)
Только у границы, да и не стоит оно того. Симку в том числе оплачивать надо, что не тривиально в нынешних условиях.
У нас возможность подключения к мобильной сети Польши или Литвы скорее как проблема рассматривается, когда телефон в международный роуминг сам уходит. в 2010х обычной практикой было отключать автоматический поиск и выбор сети.
В Калининградской области всё, что заблокировано - действительно заблокировано. У нас тут всего 4 линка с внешним миром, если я не ошибаюсь, и все они управляются Ростелекомом.
Всё равно когерентного диалога не получается. Модель обычно слишком зацикливается на том, что вытащено из базы автоматом, даже если информация не релевантна.
Ну кстати Vedal упомянул, что Neuro зачастую работает бес присмотра потому что ему влом присматривать, но по условиям платформы он должен сказать, что присматривает. Но крышу ей периодичести рвёт всё так же. Она в принципе делает то, что и все остальные сети: "Выглядит реалистично"
Это точно проблема моделей. Разные ломаются по разному, но если вы хотите "кошкожену" с постоянной памятью - не получится. (я тут шучу, но там у них дефолтный персонаж пользователя - "Romanian catgirl")
В "агентах" что я пытался построить сам - крыша у AI едет так же быстро, если не быстрее.
У них инсталлер есть, по крайней мере для самого SillyTavern. Но не ожидайте многого, персонаж действует реалистично пока внезапно AI на ровном месте не ломается и не начинает пороть чушь или просто повторять по кругу уже сказанное. Обычно на 10-11 реплике в чате.
Ок, а как должен тогда выглядить пайплайн по вашему мнению?
В моих тестах AI не смог даже нормально DTO на основе примера json'а составить, следуя указанному стилю. То, что он писал не распарсило бы json-пример, а в ответ на указание ошибки он меня уверял, что всё в порядке и должно работать. Конкретно он автоматом snake_сase в camelCase конвертил. Чтобы это работало нужно было либо прописать имена полей вручную, либо передать параметр в парсер. О втором варианте я на тот момент не знал, AI мне о нём не рассказал, и более того, в коде-примере использования не передавал его сам.
И того, на DTO с AI убито 30 минут времени, вручную писать - 5-10.
Простите, а что не так? Это нормальный подход к программированию.
Ну да, можно AI попросить описать архитектуру. Но результат это не изменит.
Вот да, такой же опыт. Мы либо не те языки используем, либо стандарт качества у "вайбкодеров" слишком низкий. Во всех экспериментах быстрее было бы сделать самому.
Но да, вау-эффект рабочая программа написанная с первого раза вызывает (подумаешь, она трижды на одно и тоже событие одним и тем же методом подписалась...)
ИИ текст попадает в этакий uncanny valley для, но для текста. Он слишком... сложный и правильный при минимальной концентрации смысла, что ли? Из разряда "если в предложении могут присутствовать все части речи - я включу их все!".
Ии не написал бы "предположу" или "Чутьё!" например. Он бы написал "Я могу предположить," и "Вот это чутьё!".
Я лишь скажу, что от вашего коммента тоже несёт ИИ, кроме самого последнего предложения.
Есть ещё вот это чудо китайской инжинерии:
Модифицированная RTX 4090 с 48GB памяти
https://aliexpress.ru/item/1005009316503411.html
Впрочем понятия не имею как их можно купить, ссылка для примера. Linus Tech Tips ревьюили её, говорят, что они им за 4000$ досталась
https://www.youtube.com/watch?v=HZgQp-WDebU
Учитывая, насколько скатился поиск Гугла - ни разу не удивлён. Давно перешёл на duckduckgo как основной поиск (bing тоже неплох для запросов связанных с программированием)
Pascal это ещё Tesla P40, которая когда-то была бюджетным решением для локального ИИ
Проблема в ИИ состоит в том, что он крайне неточен. Он не понимает что важно, а что нет. И он врёт не заикаясь. В моих экспериментах (разных, от программирования до графомании) точность выполнения задач в среднем процентов 60. Причём результат варьируется от идеального до полного бреда замаскированного под хорошо написанным текстом (худший исход, имхо).
Могу предположить, что все эти сообщения были написаны от вашего имени?
Если да, возможно люди просто стеснялись послать вас нафиг до того, как вы рассказали об ИИ, за то, что вы генерировали бессмысленную рабочую нагрузку.
Ещё люди ленивы, мы не начинаем давать tl;dr задачи если только не считаем что либо собеседник не прочитал задачу, либо считаем, что он её не понял. Собеседник может пойти и прочитать её сам, без испорченного телефона, в конце концов. И в результате пересказ тоже может быть принят как оскорбление, что автор думает что получатель сообщения - дурак.
В общем моё личное мнение, что автоматизированные системы должны быть отделены от личного общения. Выкиньте tl;dr перенесите на специальный аккаунт, ограничьте количество сообщений, сократите длину текста и сделайте его менее "человечным" (лучше даже совсем без ИИ) - и это всё может быть даже заработает. (впрочем вы пишете, что именно это вы и сделали в конце)
Я придерживаюсь того мнения, что использовать AI просто для генерации ответа на вопрос, когда ответ известен без ИИ - это неуважение к людям. ИИ нужен там, где что-то нужно "понять". В приведённом же примере достаточно было бы робота, который бы написал "критическая задача не закрыта в течении X дней, требуется обновление"
ИИ "отравляет" общение: вместо того, чтобы понять что это автоматизированное сообщение и проблема с высокой долей вероятности чисто техническая или уже обсуждённая - нужно вчитываться и тратить время и усилия на осознание написанного (а ИИ отличаются высоким количеством "воды" в тексте). В результате когда разработчику напишет настоящий человек с настоящей проблемой - разработчик проигнорирует его как шум.