Слышал и каждый раз корежит когда приходится работать с ней. "Вы не обращайте внимания. тут просто копченую рыбу заворачивали и следы на спецификации". Поля в которых "вот это поде заполняет эти, если эти поля такие". "тут будет "1111-11-11", если 106 = "0, а если 106='ТП' то то 107 вот такого странного формата (типа если начинается с "ЗД", то дальше дата такого формата, а если с "КВ", то дальше месяц, а если с ..)" и т.д. и т.п.
Банки плачут, но пытаются жевать этот кактус. С магией настройки/описания данных ГИС ГМП. Какой нафиг поиск в БД. Какое структруриование данны.. не.. не слышали. Даже СБП с C2G от этого фактически открестились "мы тут не при чем. мы только данные передаем".
Мне всегда очень хочется взглянуть в глаза тех людей которые бессистемно ляпали заплату на заплату и придумывали эти дикие форматы полей в ГИС ГМП.
Студентов ПТУ нанимали за еду?
Как ни Гос. ПО, так такая гадость... (Цифровой Рубль пошел той де кривой архитектурной дорожкой)
Либо все забыли что такое "бубен у админа/разработчика", либо это осталось "узком кругу". Это скорее специфичная шутка, а не издевка.
Настоящий (как минимум, не выглядел сувенирным и был изрядно потрепанный) большой бубен висел в комнате где сидели разработчики и админы. И иногда очень хотелось его использовать. Хотя бы что бы снять стресс и "тайной надеждой на магию" :)
Когда программа "вела себя непредсказуемо на проме". И это когда знаешь как она работает в потрохах (сам писал исходники) и есть логи и возможность погонять в контролируемой среде под отладчиком и т.п. и т.д. Причина: тонкие моменты с временными гонками, форматом/размеров входных данных и т.д. Или "причина не найдена" (Bенера в созвездии Сурка) Даже в таких условиях где то 10% сбоев остаются "а черт его знает что было. Оно не повторяется". И да. чаще всего вообще не повторяется.
А когда читаешь как сотрудник умолят LLM выдать ему результат (читал такие статьи)
угрожая
рассказывая что его уволят
пр. Ну блин. Почему все забыли про бубен и его магические свойства. Это же прям того же плана. Подбор "магического" промта/контекста.
Вера в то, что LLM все может. Да в это можно верить, только не зная что LLM генерит!
Я активно использую LLM в разработке. Но я всегда проверяю то что нагенерено. Потому, что код выглядит часто как худшие примеры, надерганные из Интернета. И даже если так не выглядит, то может создавать иллюзию, что он работает. Потому что, в конкретных случаях, мне видно, что он может "сломаться" на таких то и таких то условиях или вообще выдаст чуть не те данные, что нужно.
Уже два раза пачи приходилось выпускать на пром, потому что поленился проверить внимательно то, что принял от LLM как результат. Причем все тесты (включая регресс тесты) были пройдены. Просто определенные условия и сочетания параметров.
КАК может ПО созданное по промтам вайбкодера (для которого исходники - это черный ящик) может использоваться для серьезных целей - я не представляю.
Хотя представляю. Читаю статьи от фрилансеров, которые активно LLM используют, и хвастаются, что даже в код не смотрят. Ну что, то же метод. Сдал красивый документированный код с тестами (той же LLM нагенеренными) заказчику. А дальше хоть трава не расти. Деньги то получил. Все остальное - не его проблема.
Вот тут то специализированный бубен и понадобится. Как минимум тому, кто это будет эксплуатировать.
Ну и что за статья без ссылки на Телеграм-канал. У меня есть канал на 24к человек, где я рассказываю про бизнес, менеджмент, запуск и продвижение своих мини-проектов, нейросети и всякие другие штуки.
И "просите агента". ну не смог удержаться.. простите. Бубен забыли! Главный инструмент админа - бубен. Для вайбкодера, который не знает ничего (и использует термин ИИ вместо LLM), бубен должен быть наверное другой формы, размеров.
Уточнил у LLM какой
Бубен для вайбкодера — это, как правило, сувенирный или декоративный инструмент, который символизирует "магический" способ решения проблем в программировании, а не профессиональный музыкальный инструмент. ... <длинный текст с вариантами покупки и использования>...
А при чем тут это. Я имел в виду 2 млрд рублей на заведомо нерентабельный проект "взаймы" (на распил). Мало им "Москвича-3". Но там хоть можно было гадать "окупится линия сборки или нет".
А тут и гадать не нужно. ЭТО за 4 млн то.
Хотя "верующие" найдутся. У кого память краткосрочная и арифметикой проблемы.
Это вы зря. Это максимализм. Люди которые мыслят чуть по другому чем вы это не "Сам дурак".
Из жизненного опыта и накопленной статистики могу сказать, что с вероятностью 100% другой человек может сказать и про вас, что вы "не правильно вопросы формируете и он не может вас понять". И это не потому что он "Сам дурак". А потому что он из чуть другого круга общения с другой терминологией с другие "подразумеваю это". Даже внутри одной компании при общении с людьми, которые занимаются другими темами, нужно всегда тщательно уточнять "что имеется в виду". А уже когда сталкиваешься в совещаниях с еще более отдаленными в теме или с другим культурным/техническим контекстом, то вообще XXX.
Если бы мне за услышанную в разных вариациях фразу "это же очевидно, что я спрашиваю/говорю" давали по рублю, то уже было бы "много рублей" :)
2 млрд рублей: выделены Фондом развития промышленности (РФПИ).
"Предварительная цена электромобиля «Атом» составляет от 3 до 4 млн рублей без учёта государственных субсидий"
Очередной распил. Вот только ботам с восторженными комментами недоступна арифметика, что бы поделить одно на другое и посмотреть статистику продаж аналогов.
А "Ё-мобиль" делался для "хочу стать президентом". Но итог один. Мусор и трата ресурсов.
Вот все равно же все умрут (смерть неизбежна). Но кто то делает что то типа "Древний Сиам" в Бангкоке, а кто то чешет эго и ворует (или что похуже) не стесняясь.
Никогда сам не вел конспекты в принципе. Это очень мешало воспринимать информацию. Фиксацией зрительных образов и ассоциативных цепочек. Так что все люди разные. не стоит обобщать.
Если со 2..3 попыток не получается (долго ли в чате copy|paste "..дай еще.." фразу) то так же делаю. всегда приходится искать баланс между ленью писать промпт и код.
я вообще сочувствую вайб кодерам. Пробовал из принципа одностраничный сайт сделать исключительно LLM. Так писать LLM, то что надо сделать, зачастую дольше чем просто код вбить.
Вот только основной способ работы с SD моделями - запустить генерацию пачки штук в 100, и надеяться, что в этой пачке найдется что то более менее подходящее задуманному. Причем с мучительным выбором. Либо сразу высокое разрешение (дольше генерит) либо надеяться что удачно полученную картинку удастся удачно масштабировать, не потратив на это много времени и не получив незаметные артефакты типа ладони, торчащей из задницы.
A так же куча скаченных пред обученных моделей с сайтов типа civitai. Потому что самому дообучить (например в kohya ss) - это много работы по подготовке dataset. Да и для SDXL 16gb не хватает, а Lora не так эффективна для результата.
Да еще найти среди моделей нормальные сложно. Большинство, без явных уточнений в промте, норовят ню или вообще порнушку сгенерить.
Большинство дообученных моделей на сайтах - это порнуха с лицами в стиле "азия аниме". В Китае/Японии проблема что ли с этим..
A температура на плате 70 градусов и шуршит вентилятор карты активно. Так что, если вы этим не зарабатываете, то генерация SD это хороший способ уменьшить ресурс видеокарты.
Я только одного не понял. Критерий определяет LLM.
Если найденный документ напрямую отвечает на вопрос, поставь 5 баллов.
Так ответ же предназначен пользователю. А он человек. Зачастую сам не знает что спрашивает "а я тут спрашивал.. но имел в виду". А тут LLM, обученная на каком то общем датасете за него решает. В жизни "я имел в виду" сплошь и рядом (что такой аборт.. А волны бились "а борт" корабля)
Может это как то работает на данных, которые были широко представлены в датасете обучения данной LLM. Но для узкоспециализированных вопросов на темы которых либо вообще не было при обучении или мало, решение LLM будет некорректным (скорее всего случайным).
Рутинный код и раньше все искали на StackOverflow, копировали
Иногда (редко) копировал, а чаще плевался на него. Там зачастую такую фигню пишут.
А сейчас как будто ничего не изменилось с LLM. Иногда даже ощущение дежавю "где то я этот уже видел. Как бы не на StackOverflow". Что понятно в общем то. На чем обучали.
И приходится писать "Give me another version of the code". Потому что просто лень стучать по клавишам, но знаешь что должно быть. А "чувство прекрасного" не дает принять ту первую корявенькую (но правда рабочую) версию, что LLM выдала.
У меня стоит gpt-oss (правда поменьше чем 120). Но oss это по сути несколько маленьких моделей выбираемых динамически для ответа. Т.е. отвечает используя набор коэффициентов одной из сеток внутри "наиболее подходящих".
И я с oss игрался. Не зашла и не особо впечатлила. Для моих целей (плагин в IDE) больше подошла Qwen3-Coder-REAP-25B-A3B-MXFP4_MOE.
ставьте unsloth. Для него полно примеров на сайтах. И до обучения и Lora и готовые примеры/наборы данных для обучения и пр.
Только, если у вас 16gb карта (как у меня), то результат вас разочарует. Поиграться что бы понять как - да. Практический результат на игрушечных сетках - так себе.
Когда скачиваете модель через lm studio, то там оценочно покажет влезет в ваш GPU или нет. Но и при скачивании другим способом в принципе легко оценить влезет или не влезет. Размер файла на диске - это фактически образ (коэффициенты) который должен помещаться в GPU полностью. Если хотите нормальную скорость выдачи токенов ответа (хотя бы 8-10 в сек) + хотя бы 10% запаса (зависит от размера контекста который хотите использовать в чате) Все можно, конечно и с CPU и с подкачкой в GPU, но это оочень медленно. Для практической работы не очень. Лично мне. 1 токен в сек в ответе уже раздражает безмерно.
Для примера скачаем самую маленькую модель (124М), чтобы проверить на что она способна и рассмотреть её архитектуру:
Ни на что она не способна. Вообще. Динозавр уже.
Мои эксперименты с обучением (в unslosh) показали, что максимум 4b модель LLM на 16Gb GPU можно до обучить и то на игрушечных данных. А 4b модель - это игрушка, которая не стоить даже упоминания, не то что статьи. От LLM такого размера толку 0.
А уж < 1b...
Кстати, в unslosh в jupyter notebook гораздо удобнее. Особенно "на попробовать". И готовых примеров полно. хорошо комментированных примеров, которые можно прям по шагам запускать в notebook
К сожалению в 16Gb GPU для обучения даже модели Stable Diffusion XL не лезут. Только SD1.5 нормально. Но это для картинок. Там хоть, если узко специализировано обучить, то результата можно добиться. Lora, к сожалению, на картинках дает хуже результат, чем обучение модели.
Ну сделал я такое для себя. где то 2000 страниц confluence и pdf доков на 2 Гб. Первый этап - поиск контекстный и поиск по точному совпадению - все OK. Выдает нужные документы и скриншоты страниц где есть найденные чанки. А вот подставлять найденное в чат LLM особого смысла нет. результат слишком не предсказуем. То фигня, то более менее релевантный резюм по найденному. Причем фигня чаще.
А теоретики "а это у тебя промп не правильный, перепиши". А те, кто фактически пробовал как то энтузиазм теряют и заминают эту тему. Хотя с нынешней тенденцией (на уровне Грефа и пр.) лучше то же изображать энтузиазм и говорить что "да вообще.. все время ИИ пользую и производительность выросла на 150%".
я вам, минусы не ставлю. Априорно мошенником не считаю. Делать что то для "общей пользы" это как минимум на карме хорошо скажется :)
Сервисы от банков то же не 100% надежность. Сам их делаю (включая C2C и C2B СБП) и поэтому <сарказм>предпочитаю наличные</сарказм>
Но все же, сервисы банков - хоть меньше вероятность...
А вообще проблема из пальца высосана. Обычно кому переводишь - тот в списке контактов. И вообще в наше время лучше налом. Мало ли как жизнь повернется. Зачем плодить BigData на себя.
А за шаурму на пляже C2C на левый номер... не.. поголодаю (да и нал всегда с собой).
Я может параноик и пессимист, но не хочу попасть под "спонсирование <сами знаете чего>" что бы какая ни будь гнида в органах для палочки уголовку успешно "нашла, завела и раскрыла".
Кроме того, в боте вы можете установить собственную защитную фразу, которая будет показываться в интерфейсе визитки
Вы действительно не понимаете, что я имею в виду?
Mне все равно что утверждает автор/владелец бота/сервиса. Мне все равно какие у него продекларированы "защитные механизмы". Бот не мой. бот стоит фиг знает где. "Защитные механизмы" от кого? От владельца бота :) Да пусть хоть 100 раз автор/владелец бота обижается на то, что я ему не доверяю. А с чего, в общем случае, ему кто должен доверять? Я с ним лично не знаком. Хотя, как показывает жизнь, не всем знакомым стоит доверять даже кошелек подержать :)
Даже просто информация что имярек с таким номером телефона часто делает переводы - это то, что этому имяреку светить в левых местах не стоит.
Слышал и каждый раз корежит когда приходится работать с ней.
"Вы не обращайте внимания. тут просто копченую рыбу заворачивали и следы на спецификации".
Поля в которых "вот это поде заполняет эти, если эти поля такие". "тут будет "1111-11-11", если 106 = "0, а если 106='ТП' то то 107 вот такого странного формата (типа если начинается с "ЗД", то дальше дата такого формата, а если с "КВ", то дальше месяц, а если с ..)" и т.д. и т.п.
Банки плачут, но пытаются жевать этот кактус. С магией настройки/описания данных ГИС ГМП.
Какой нафиг поиск в БД. Какое структруриование данны.. не.. не слышали.
Даже СБП с C2G от этого фактически открестились "мы тут не при чем. мы только данные передаем".
Мне всегда очень хочется взглянуть в глаза тех людей которые бессистемно ляпали заплату на заплату и придумывали эти дикие форматы полей в ГИС ГМП.
Студентов ПТУ нанимали за еду?
Как ни Гос. ПО, так такая гадость... (Цифровой Рубль пошел той де кривой архитектурной дорожкой)
Либо все забыли что такое "бубен у админа/разработчика", либо это осталось "узком кругу".
Это скорее специфичная шутка, а не издевка.
Настоящий (как минимум, не выглядел сувенирным и был изрядно потрепанный) большой бубен висел в комнате где сидели разработчики и админы. И иногда очень хотелось его использовать. Хотя бы что бы снять стресс и "тайной надеждой на магию" :)
Когда программа "вела себя непредсказуемо на проме". И это когда знаешь как она работает в потрохах (сам писал исходники) и есть логи и возможность погонять в контролируемой среде под отладчиком и т.п. и т.д.
Причина: тонкие моменты с временными гонками, форматом/размеров входных данных и т.д. Или "причина не найдена" (Bенера в созвездии Сурка)
Даже в таких условиях где то 10% сбоев остаются "а черт его знает что было. Оно не повторяется". И да. чаще всего вообще не повторяется.
А когда читаешь как сотрудник умолят LLM выдать ему результат (читал такие статьи)
угрожая
рассказывая что его уволят
пр. Ну блин. Почему все забыли про бубен и его магические свойства. Это же прям того же плана. Подбор "магического" промта/контекста.
Вера в то, что LLM все может.
Да в это можно верить, только не зная что LLM генерит!
Я активно использую LLM в разработке. Но я всегда проверяю то что нагенерено. Потому, что код выглядит часто как худшие примеры, надерганные из Интернета. И даже если так не выглядит, то может создавать иллюзию, что он работает. Потому что, в конкретных случаях, мне видно, что он может "сломаться" на таких то и таких то условиях или вообще выдаст чуть не те данные, что нужно.
Уже два раза пачи приходилось выпускать на пром, потому что поленился проверить внимательно то, что принял от LLM как результат. Причем все тесты (включая регресс тесты) были пройдены. Просто определенные условия и сочетания параметров.
КАК может ПО созданное по промтам вайбкодера (для которого исходники - это черный ящик) может использоваться для серьезных целей - я не представляю.
Хотя представляю. Читаю статьи от фрилансеров, которые активно LLM используют, и хвастаются, что даже в код не смотрят. Ну что, то же метод. Сдал красивый документированный код с тестами (той же LLM нагенеренными) заказчику. А дальше хоть трава не расти. Деньги то получил. Все остальное - не его проблема.
Вот тут то специализированный бубен и понадобится. Как минимум тому, кто это будет эксплуатировать.
Увидев это
И "просите агента".
ну не смог удержаться.. простите.
Бубен забыли! Главный инструмент админа - бубен. Для вайбкодера, который не знает ничего (и использует термин ИИ вместо LLM), бубен должен быть наверное другой формы, размеров.
Уточнил у LLM какой
А при чем тут это.
Я имел в виду 2 млрд рублей на заведомо нерентабельный проект "взаймы" (на распил).
Мало им "Москвича-3". Но там хоть можно было гадать "окупится линия сборки или нет".
А тут и гадать не нужно. ЭТО за 4 млн то.
Хотя "верующие" найдутся. У кого память краткосрочная и арифметикой проблемы.
Где то я уже видел подобное и не раз.
Это вы зря. Это максимализм. Люди которые мыслят чуть по другому чем вы это не "Сам дурак".
Из жизненного опыта и накопленной статистики могу сказать, что с вероятностью 100% другой человек может сказать и про вас, что вы "не правильно вопросы формируете и он не может вас понять".
И это не потому что он "Сам дурак". А потому что он из чуть другого круга общения с другой терминологией с другие "подразумеваю это".
Даже внутри одной компании при общении с людьми, которые занимаются другими темами, нужно всегда тщательно уточнять "что имеется в виду".
А уже когда сталкиваешься в совещаниях с еще более отдаленными в теме или с другим культурным/техническим контекстом, то вообще XXX.
Если бы мне за услышанную в разных вариациях фразу "это же очевидно, что я спрашиваю/говорю" давали по рублю, то уже было бы "много рублей" :)
Очередной распил. Вот только ботам с восторженными комментами недоступна арифметика, что бы поделить одно на другое и посмотреть статистику продаж аналогов.
А "Ё-мобиль" делался для "хочу стать президентом". Но итог один. Мусор и трата ресурсов.
Вот все равно же все умрут (смерть неизбежна). Но кто то делает что то типа "Древний Сиам" в Бангкоке, а кто то чешет эго и ворует (или что похуже) не стесняясь.
Никогда сам не вел конспекты в принципе. Это очень мешало воспринимать информацию. Фиксацией зрительных образов и ассоциативных цепочек.
Так что все люди разные. не стоит обобщать.
Если со 2..3 попыток не получается (долго ли в чате copy|paste "..дай еще.." фразу) то так же делаю.
всегда приходится искать баланс между ленью писать промпт и код.
я вообще сочувствую вайб кодерам. Пробовал из принципа одностраничный сайт сделать исключительно LLM. Так писать LLM, то что надо сделать, зачастую дольше чем просто код вбить.
Вот только основной способ работы с SD моделями - запустить генерацию пачки штук в 100, и надеяться, что в этой пачке найдется что то более менее подходящее задуманному.
Причем с мучительным выбором. Либо сразу высокое разрешение (дольше генерит) либо надеяться что удачно полученную картинку удастся удачно масштабировать, не потратив на это много времени и не получив незаметные артефакты типа ладони, торчащей из задницы.
A так же куча скаченных пред обученных моделей с сайтов типа civitai. Потому что самому дообучить (например в kohya ss) - это много работы по подготовке dataset. Да и для SDXL 16gb не хватает, а Lora не так эффективна для результата.
Да еще найти среди моделей нормальные сложно. Большинство, без явных уточнений в промте, норовят ню или вообще порнушку сгенерить.
Большинство дообученных моделей на сайтах - это порнуха с лицами в стиле "азия аниме".
В Китае/Японии проблема что ли с этим..
A температура на плате 70 градусов и шуршит вентилятор карты активно.
Так что, если вы этим не зарабатываете, то генерация SD это хороший способ уменьшить ресурс видеокарты.
Я только одного не понял.
Критерий определяет LLM.
Так ответ же предназначен пользователю. А он человек. Зачастую сам не знает что спрашивает "а я тут спрашивал.. но имел в виду". А тут LLM, обученная на каком то общем датасете за него решает.
В жизни "я имел в виду" сплошь и рядом (что такой аборт.. А волны бились "а борт" корабля)
Может это как то работает на данных, которые были широко представлены в датасете обучения данной LLM. Но для узкоспециализированных вопросов на темы которых либо вообще не было при обучении или мало, решение LLM будет некорректным (скорее всего случайным).
Иногда (редко) копировал, а чаще плевался на него. Там зачастую такую фигню пишут.
А сейчас как будто ничего не изменилось с LLM. Иногда даже ощущение дежавю "где то я этот уже видел. Как бы не на StackOverflow". Что понятно в общем то. На чем обучали.
И приходится писать "Give me another version of the code". Потому что просто лень стучать по клавишам, но знаешь что должно быть.
А "чувство прекрасного" не дает принять ту первую корявенькую (но правда рабочую) версию, что LLM выдала.
У меня стоит gpt-oss (правда поменьше чем 120).
Но oss это по сути несколько маленьких моделей выбираемых динамически для ответа. Т.е. отвечает используя набор коэффициентов одной из сеток внутри "наиболее подходящих".
И я с oss игрался. Не зашла и не особо впечатлила.
Для моих целей (плагин в IDE) больше подошла Qwen3-Coder-REAP-25B-A3B-MXFP4_MOE.
ставьте unsloth. Для него полно примеров на сайтах. И до обучения и Lora и готовые примеры/наборы данных для обучения и пр.
Только, если у вас 16gb карта (как у меня), то результат вас разочарует. Поиграться что бы понять как - да.
Практический результат на игрушечных сетках - так себе.
Когда скачиваете модель через lm studio, то там оценочно покажет влезет в ваш GPU или нет.
Но и при скачивании другим способом в принципе легко оценить влезет или не влезет. Размер файла на диске - это фактически образ (коэффициенты) который должен помещаться в GPU полностью. Если хотите нормальную скорость выдачи токенов ответа (хотя бы 8-10 в сек) + хотя бы 10% запаса (зависит от размера контекста который хотите использовать в чате)
Все можно, конечно и с CPU и с подкачкой в GPU, но это оочень медленно. Для практической работы не очень. Лично мне. 1 токен в сек в ответе уже раздражает безмерно.
Автор (или тот кто написал ему статью) галлюцинирует
понимать под до обучением задание системного промта в Modelfile это конечно круто.
А следующий абзац вооще...
ollama НЕ имеет функционала до обучения моделей. Ключ "--train" придуман.
Статья высосана из пальца и бредовая. не ведитесь
Ни на что она не способна. Вообще. Динозавр уже.
Мои эксперименты с обучением (в unslosh) показали, что максимум 4b модель LLM на 16Gb GPU можно до обучить и то на игрушечных данных.
А 4b модель - это игрушка, которая не стоить даже упоминания, не то что статьи. От LLM такого размера толку 0.
А уж < 1b...
Кстати, в unslosh в jupyter notebook гораздо удобнее. Особенно "на попробовать". И готовых примеров полно. хорошо комментированных примеров, которые можно прям по шагам запускать в notebook
К сожалению в 16Gb GPU для обучения даже модели Stable Diffusion XL не лезут. Только SD1.5 нормально. Но это для картинок. Там хоть, если узко специализировано обучить, то результата можно добиться.
Lora, к сожалению, на картинках дает хуже результат, чем обучение модели.
А LLM до обучать "дома" практического смысла нет.
Как красиво все пишут..
Ну сделал я такое для себя. где то 2000 страниц confluence и pdf доков на 2 Гб.
Первый этап - поиск контекстный и поиск по точному совпадению - все OK. Выдает нужные документы и скриншоты страниц где есть найденные чанки.
А вот подставлять найденное в чат LLM особого смысла нет. результат слишком не предсказуем. То фигня, то более менее релевантный резюм по найденному. Причем фигня чаще.
А теоретики "а это у тебя промп не правильный, перепиши". А те, кто фактически пробовал как то энтузиазм теряют и заминают эту тему.
Хотя с нынешней тенденцией (на уровне Грефа и пр.) лучше то же изображать энтузиазм и говорить что "да вообще.. все время ИИ пользую и производительность выросла на 150%".
я вам, минусы не ставлю. Априорно мошенником не считаю. Делать что то для "общей пользы" это как минимум на карме хорошо скажется :)
Сервисы от банков то же не 100% надежность. Сам их делаю (включая C2C и C2B СБП) и поэтому <сарказм>предпочитаю наличные</сарказм>
Но все же, сервисы банков - хоть меньше вероятность...
А вообще проблема из пальца высосана.
Обычно кому переводишь - тот в списке контактов. И вообще в наше время лучше налом. Мало ли как жизнь повернется. Зачем плодить BigData на себя.
А за шаурму на пляже C2C на левый номер... не.. поголодаю (да и нал всегда с собой).
Я может параноик и пессимист, но не хочу попасть под "спонсирование <сами знаете чего>" что бы какая ни будь гнида в органах для палочки уголовку успешно "нашла, завела и раскрыла".
Вы действительно не понимаете, что я имею в виду?
Mне все равно что утверждает автор/владелец бота/сервиса. Мне все равно какие у него продекларированы "защитные механизмы".
Бот не мой. бот стоит фиг знает где. "Защитные механизмы" от кого? От владельца бота :)
Да пусть хоть 100 раз автор/владелец бота обижается на то, что я ему не доверяю. А с чего, в общем случае, ему кто должен доверять? Я с ним лично не знаком.
Хотя, как показывает жизнь, не всем знакомым стоит доверять даже кошелек подержать :)
Даже просто информация что имярек с таким номером телефона часто делает переводы - это то, что этому имяреку светить в левых местах не стоит.
ну просто цифровая гигиена.
вот прям "мамой клянусь ничего не хранит".
Неужели есть непуганные идиоты которые в левый бот будут отправлять ТАКУЮ информацию.
Хотя... наверняка найдутся.
Пусть даже автор не имел в виду ничего плохого.. но откуда я знаю "что и зачем сделано".