А сейчас вы можете достать из этого канала хронологию тех событий?
Так?
В соцсетях же даже отмотать ленту на месяц
Рекомендательную ленту? Не удивительно, что сложно. Вы распространяете опыт с этой самой ленты рекомендаций на вполне себе детерминированный список постов в телеграм-канале.
поиск работает только если контент не удалён из кэша
Тащемта в UTF-16 один символ код-поинт может кодироваться и одним код-юнитом, и двумя, что не решает проблемы.
Странная у вас постановка проблемы, обычно размер в байтах есть всегда, а уже вычисление отображаемой длины строки или длины в код-поинтах требует дополнительных усилий.
Статистикой это было бы если кто-то собрал бы большой датасет комбинаций "число -- корректная запись прописью", прогнал бы хотя бы несколько десятков строк через API с разными моделями, а потом сделал выводы: какая зависимость долей корректных ответов от модели, от длины числа и т.п.
Но ведь тех, кто считает вывод LLM истиной в последней инстанции, полным-полно
Ваш комментарий с этим так борется, что лучше и не надо. Цель вроде бы благая -- показать, что ИИ может ошибаться, но выбран такой пример, что без пачки примечаний (которую я написал в своём ответе) он несёт большой сопутствующий ущерб, потому что не опирается на научный подход (громко звучит, но правда), и читатель станет привыкать к таким некорректным оценкам и будет их распространять, что плохо.
Аудитория Хабра докатилась до такого уровня, когда чтобы выразить свою мысль, в чём ты не согласен с автором, за несколько часов нашёлся только один человек, который в качестве ответа скопировал вывод ИИ (кроме последнего абзаца; очень смешно выглядит такая смена стиля речи) (также обратите внимание на то, что в написанных ИИ частях используются кавычки-ёлочки, а в человеческих -- лапки), без всякого указания на это, а остальные это плюсут. Пролистал другие комментарии комментатора, такой подход им широко используется. Докатились.
Я это к тому, что 1. разовый пример (ошибка выжившего) на 2. не указано какой модели (chatgpt.com не сообщает, какая именно) с 3. таким примером, который никто, у кого есть хоть капля мышления, решать в проде с помощью LLM не додумается (потому что эта задача решается детерминистично, к тому же это весьма популярная задача (так как используется юристами)) вообще ничего не говорит о том, хороши LLM или нет (к тому же разговор шёл об их использовании при программировании). Ваш комментарий несёт один вред и ничего полезного.
Скепсис по поводу УЗ-ножей: https://habr.com/ru/companies/ruvds/articles/951388/comments/#comment_28911630 via
Это уже новая традиция.
Было: https://habr.com/ru/news/1031744/
К тому же, там заголовок нормальный, а тут чепуха.
Обязательно с таким оформлением
Тащемта этот вариант заблокирован с обеих сторон: в РФ нельзя ввозить/использовать терминалы, а сам Старлинк не обслуживает РФ.
По последним оценкам, у @edinorog карма -407. Не могу не сообщить.
Производитель тут отношения не имеет, т.к. гарантийное обслуживание осуществляется продавцом/импортёром.
Неправда, каждая страна сама решает, разрешать параллельный импорт или нет.
Это международно известное явление, а не местное изобретение.
Вообще нет. Явление старое и международное; в том же ЕС/ЕЭЗ параллельный импорт не разрешён: https://business.gov.nl/regulations/parallel-imports/
Скрытый текст
А человек сможет что-то вывести, не оперевшись ни на одну предпосылку?
Это вы про то, что ИИ действует реактивно (т.е. нуждается в пинке в виде запроса пользователя)? Это решается механически путём простого зацикливания.
Жив-жив: https://410chan.org/b/res/185114.html#212991, https://t.me/ReadMithgol
Citation needed
Почему-то мне кажется, что вопрос авторских прав в этой истории на десятом месте по важности.
Так?
Рекомендательную ленту? Не удивительно, что сложно. Вы распространяете опыт с этой самой ленты рекомендаций на вполне себе детерминированный список постов в телеграм-канале.
В Телеграме поиск в канале ищет по всем постам.
Тащемта в UTF-16 один
символкод-поинт может кодироваться и одним код-юнитом, и двумя, что не решает проблемы.Странная у вас постановка проблемы, обычно размер в байтах есть всегда, а уже вычисление отображаемой длины строки или длины в код-поинтах требует дополнительных усилий.
Защитник UTF-8 в треде
Citation needed
Статистикой это было бы если кто-то собрал бы большой датасет комбинаций "число -- корректная запись прописью", прогнал бы хотя бы несколько десятков строк через API с разными моделями, а потом сделал выводы: какая зависимость долей корректных ответов от модели, от длины числа и т.п.
Ваш комментарий с этим так борется, что лучше и не надо. Цель вроде бы благая -- показать, что ИИ может ошибаться, но выбран такой пример, что без пачки примечаний (которую я написал в своём ответе) он несёт большой сопутствующий ущерб, потому что не опирается на научный подход (громко звучит, но правда), и читатель станет привыкать к таким некорректным оценкам и будет их распространять, что плохо.
Аудитория Хабра докатилась до такого уровня, когда чтобы выразить свою мысль, в чём ты не согласен с автором, за несколько часов нашёлся только один человек, который в качестве ответа скопировал вывод ИИ (кроме последнего абзаца; очень смешно выглядит такая смена стиля речи) (также обратите внимание на то, что в написанных ИИ частях используются кавычки-ёлочки, а в человеческих -- лапки), без всякого указания на это, а остальные это плюсут. Пролистал другие комментарии комментатора, такой подход им широко используется. Докатились.
Я это к тому, что 1. разовый пример (ошибка выжившего) на 2. не указано какой модели (chatgpt.com не сообщает, какая именно) с 3. таким примером, который никто, у кого есть хоть капля мышления, решать в проде с помощью LLM не додумается (потому что эта задача решается детерминистично, к тому же это весьма популярная задача (так как используется юристами)) вообще ничего не говорит о том, хороши LLM или нет (к тому же разговор шёл об их использовании при программировании). Ваш комментарий несёт один вред и ничего полезного.