Навык отличать нейрослоп вырабатывается где-то за месяц регулярного использования. Даже если нейронка старается говорить как человек, все равно в глаза быстро бросаются закономерности генерации, люди так не говорят/строят предложения и т.д. Обмануть можно разве что на коротких диалогах.
В моем случае жара даже худший триггер, мне банально душно. В упомянутом мною случае я ещё часа 2 не мог уснуть пока не дали электропитание и комната не охладилась до 23-24. От холода же я просыпаюсь только когда он совсем серьёзный, +20 я скорее всего даже не замечу.
Мне кажется тут играет роль не сам холод, а резкое изменение условий окружения. У меня как-то ночью отключили электричество от чего перестал работать кондиционер, я проснулся спустя полтора часа после этого момента, когда температура в квартире поднялась под 30+ Проснуться в середине ночи чтобы закрыть окно/отключить кондер(я люблю засыпать в прохладе) т.к ночью на улице стало прохладно и это остудило помещение, это вообще в порядке вещей.
Если человек не способен открыть архив, о каком DBA вообще речь? Если это не шутка, то лишь показывает, что на место "ИТ специалиста" посадили нужного человека.
Начните с вопроса почему жопа в науке в целом, причины будут те же самые, это всё игра в долгую. Обучать модели конкурентного уровня это дорого(очень, очень, очень дорого), долго, требует компетенций, а все что быстро не окупает себя тут никому тут не интересно. Замкнутый круг, который можно порвать только вливая много миллиардов зеленых в пустоту, без надежды на прибыль.
Дипсик никак адекватно не запустите, даже сборка что в посте это просто эксперимент с очень низкой производительностью, на чем-то бытовом сразу забудьте. Если именно дипсик не важен, идете https://huggingface.co и подбираете модель под свои ресурсы, тысячи их и их тюнов. Однако чудес не ждите, на сегодняшний день какие-то реальные мозги у моделей общего назначения начинаются с Gemma 3 27b, запихать её в 16 vram конечно можно, особенно на гибриде с RAM, но производительность просядет, поиграться хватит но не более. Всякие мелкие модели как правило более прикладные, к примеру с переводами уже неплохо справляются 4b.
LLM может решить эту задачу, но это не так просто как кажется. Сама нейросеть будет выполнять роль ядра вокруг которой нужно развернуть все нужные сервисы. Базу данных, модули поиска, голосовой агент, парсер команд из инпута/аутпута и т.д. Люди уже делают что-то подобное
В том и суть что для таких людей вести подобные системы контроля та ещё пытка, заполнение будет откладываться на потом, следом вызывать раздражение лишними ненужными обязательствами по заполнению, а потом они будут забыты окончательно, я пробовал. Подобные вещи работают у людей которые привыкли делать всё по плану, и у них вызывает сильную тревожность шанс что-то забыть. Тут действительно сперва надо к психотерапевту, а потом возможно и система не нужна будет.
Какой процент кода в этой IDE разработан в России? На 2020 год больше половины сотрудников компании работали из питерского офиса. Вы можете спокойно найти эту информацию в интернете.
Восьмой квант третьей геммы весит 28.7 GB, а шестой так вообще 22.2 GB, отличия между ними и неквантованной моделью на грани плацебо. Так что да, для геммы хватит даже одной старой 3090 с 24 гб врам, просто будет грустно с точки зрения контекста, он у неё особо прожорливый.
8b и ниже только для узких прикладных задач. К примеру третья гемма в 4b отлично работает в качестве переводчика, лучше чем гугловский веб точно. ~30b модели это универсальные рабочие лошадки локалок, гемма 3, квен 3, миллиард тюнов мистраля и т.д. Могут делать всё то что и взрослые модели, но требуют больше внимания, настроек, и толерантности к затупам. За то они без проблем запускаются на бытовой видеокарте с 24гб врам и не имеют жесткой цензуры. По сути это первая ступень когда локалка уже что-то действительно может.
Не хватает флага проксировать все запросы, а не через блеклист. Сортировкой что куда пускать занимается другой софт, а вот иметь удобное прокси куда можно заворачивать соединение полезно.
Чем так извращаться, проще через посредника(предложений полон интернет) кинуть десяток баксов на официальное апи и пользоваться сколько душе угодно без ограничений. Никаких обходов ограничений по ип и впн не надо, все работает напрямую. https://api-docs.deepseek.com/
Токены у дипсика очень дешевые, я за месяц более или менее активного юза+ресонинг потратил бакса 3-4 всего.
Вы задаёте вопрос на который модель просто не может знать ответа, для неё не существует никакого "я/ты", она себя никак не осознает, да и не может, у неё нет для этого самосознания. Воспринимайте LLM как огромные базы векторных данных, которые возвращают наиболее вероятные(ВАЖНО! именно вероятные а не точные) ответы на ваш запрос, если в датасете на которых её обучали было что в 70% случаев на такой вопрос ответ был чатгпт, она ответит вам что она чатгпт, без какой-либо привязки к реальности.
Модель не умеет никуда ходить, это просто черный ящик в который вы передаёте "текст", а оно возвращает другой "текст". Больше ничего. По ссылкам и прочему ходит отдельный фронтэнд сервис, который собирает все данные и передаёт в контекст модели вместе с вашим запросом(в нем вообще может не быть нейронок, просто парсер). Далее модель смотрит на то что собрал фронт и ваш вопрос, и пытается собрать для этого ответ.
Если программисты решили по умолчанию не обрабатывать все ссылки в диалоге, то для модели это будет просто текст http://* и т.д. Сейчас у онлайн сервизов есть отдельная кнопка внизу, включающая работу в web, попробуйте её.
Сами LLM ничего не ищут, они лишь обрабатывают переданные в них данные, ищет отдельный фронтэнд, и уже его задача собрать информацию и отдать модели. Вы можете сами такое сделать под ваши задачи. Впрочем если у вас достаточно возможностей и ресурсов можно затюнить уже существующую крупную модель, впихнув туда весь объем научной литературы, но поддерживать её актуальность само собой придется тоже вам, это все дорого, очень и очень дорого.
Если мы говорим о серьёзных вещах вроде почты или банковского счета, у сервиса всегда достаточно данных для точной идентификации и легкого отсеивания злоумышленников уже на первых слоях проверки. Впрочем никто не запрещает добавить ещё что-то обязательное при регистрации. Если же говорить о всякой мелочи где не фигурируют деньги, да это займет больше времени, вплоть до просьб вспомнить что последнее делалось с аккаунта и т.д. Но и злоумышленникам такие вещи куда менее интересны, и их потеря куда менее болезненна.
Это как раз решается проще всего, через четкий регламент, когда сторона ведущая расследование, принимающая решения, и исполняющая его, это разные люди. Никто не запрещает изучать человека вплоть до запроса документов. Все же это довольно редкий случай, как следствие он не несет больших накладных расходов.
Навык отличать нейрослоп вырабатывается где-то за месяц регулярного использования. Даже если нейронка старается говорить как человек, все равно в глаза быстро бросаются закономерности генерации, люди так не говорят/строят предложения и т.д. Обмануть можно разве что на коротких диалогах.
В моем случае жара даже худший триггер, мне банально душно. В упомянутом мною случае я ещё часа 2 не мог уснуть пока не дали электропитание и комната не охладилась до 23-24. От холода же я просыпаюсь только когда он совсем серьёзный, +20 я скорее всего даже не замечу.
Мне кажется тут играет роль не сам холод, а резкое изменение условий окружения. У меня как-то ночью отключили электричество от чего перестал работать кондиционер, я проснулся спустя полтора часа после этого момента, когда температура в квартире поднялась под 30+
Проснуться в середине ночи чтобы закрыть окно/отключить кондер(я люблю засыпать в прохладе) т.к ночью на улице стало прохладно и это остудило помещение, это вообще в порядке вещей.
Если человек не способен открыть архив, о каком DBA вообще речь? Если это не шутка, то лишь показывает, что на место "ИТ специалиста" посадили нужного человека.
Результат поиска в Bing принудительно открывающийся в Edge.
Начните с вопроса почему жопа в науке в целом, причины будут те же самые, это всё игра в долгую. Обучать модели конкурентного уровня это дорого(очень, очень, очень дорого), долго, требует компетенций, а все что быстро не окупает себя тут никому тут не интересно. Замкнутый круг, который можно порвать только вливая много миллиардов зеленых в пустоту, без надежды на прибыль.
Дипсик никак адекватно не запустите, даже сборка что в посте это просто эксперимент с очень низкой производительностью, на чем-то бытовом сразу забудьте.
Если именно дипсик не важен, идете https://huggingface.co и подбираете модель под свои ресурсы, тысячи их и их тюнов. Однако чудес не ждите, на сегодняшний день какие-то реальные мозги у моделей общего назначения начинаются с Gemma 3 27b, запихать её в 16 vram конечно можно, особенно на гибриде с RAM, но производительность просядет, поиграться хватит но не более. Всякие мелкие модели как правило более прикладные, к примеру с переводами уже неплохо справляются 4b.
LLM может решить эту задачу, но это не так просто как кажется. Сама нейросеть будет выполнять роль ядра вокруг которой нужно развернуть все нужные сервисы. Базу данных, модули поиска, голосовой агент, парсер команд из инпута/аутпута и т.д.
Люди уже делают что-то подобное
В том и суть что для таких людей вести подобные системы контроля та ещё пытка, заполнение будет откладываться на потом, следом вызывать раздражение лишними ненужными обязательствами по заполнению, а потом они будут забыты окончательно, я пробовал.
Подобные вещи работают у людей которые привыкли делать всё по плану, и у них вызывает сильную тревожность шанс что-то забыть. Тут действительно сперва надо к психотерапевту, а потом возможно и система не нужна будет.
Какой процент кода в этой IDE разработан в России?
На 2020 год больше половины сотрудников компании работали из питерского офиса. Вы можете спокойно найти эту информацию в интернете.
Восьмой квант третьей геммы весит 28.7 GB, а шестой так вообще 22.2 GB, отличия между ними и неквантованной моделью на грани плацебо. Так что да, для геммы хватит даже одной старой 3090 с 24 гб врам, просто будет грустно с точки зрения контекста, он у неё особо прожорливый.
8b и ниже только для узких прикладных задач. К примеру третья гемма в 4b отлично работает в качестве переводчика, лучше чем гугловский веб точно.
~30b модели это универсальные рабочие лошадки локалок, гемма 3, квен 3, миллиард тюнов мистраля и т.д. Могут делать всё то что и взрослые модели, но требуют больше внимания, настроек, и толерантности к затупам. За то они без проблем запускаются на бытовой видеокарте с 24гб врам и не имеют жесткой цензуры. По сути это первая ступень когда локалка уже что-то действительно может.
Не хватает флага проксировать все запросы, а не через блеклист. Сортировкой что куда пускать занимается другой софт, а вот иметь удобное прокси куда можно заворачивать соединение полезно.
Это уже классика "ТВОЙ БЫДЛОКОД НАС ОГОРЧАЕТ" (С)
Чем так извращаться, проще через посредника(предложений полон интернет) кинуть десяток баксов на официальное апи и пользоваться сколько душе угодно без ограничений.
Никаких обходов ограничений по ип и впн не надо, все работает напрямую.
https://api-docs.deepseek.com/
Токены у дипсика очень дешевые, я за месяц более или менее активного юза+ресонинг потратил бакса 3-4 всего.
Вы задаёте вопрос на который модель просто не может знать ответа, для неё не существует никакого "я/ты", она себя никак не осознает, да и не может, у неё нет для этого самосознания.
Воспринимайте LLM как огромные базы векторных данных, которые возвращают наиболее вероятные(ВАЖНО! именно вероятные а не точные) ответы на ваш запрос, если в датасете на которых её обучали было что в 70% случаев на такой вопрос ответ был чатгпт, она ответит вам что она чатгпт, без какой-либо привязки к реальности.
Модель не умеет никуда ходить, это просто черный ящик в который вы передаёте "текст", а оно возвращает другой "текст". Больше ничего. По ссылкам и прочему ходит отдельный фронтэнд сервис, который собирает все данные и передаёт в контекст модели вместе с вашим запросом(в нем вообще может не быть нейронок, просто парсер). Далее модель смотрит на то что собрал фронт и ваш вопрос, и пытается собрать для этого ответ.
Если программисты решили по умолчанию не обрабатывать все ссылки в диалоге, то для модели это будет просто текст http://* и т.д. Сейчас у онлайн сервизов есть отдельная кнопка внизу, включающая работу в web, попробуйте её.
Сами LLM ничего не ищут, они лишь обрабатывают переданные в них данные, ищет отдельный фронтэнд, и уже его задача собрать информацию и отдать модели. Вы можете сами такое сделать под ваши задачи.
Впрочем если у вас достаточно возможностей и ресурсов можно затюнить уже существующую крупную модель, впихнув туда весь объем научной литературы, но поддерживать её актуальность само собой придется тоже вам, это все дорого, очень и очень дорого.
Если мы говорим о серьёзных вещах вроде почты или банковского счета, у сервиса всегда достаточно данных для точной идентификации и легкого отсеивания злоумышленников уже на первых слоях проверки. Впрочем никто не запрещает добавить ещё что-то обязательное при регистрации.
Если же говорить о всякой мелочи где не фигурируют деньги, да это займет больше времени, вплоть до просьб вспомнить что последнее делалось с аккаунта и т.д. Но и злоумышленникам такие вещи куда менее интересны, и их потеря куда менее болезненна.
Это как раз решается проще всего, через четкий регламент, когда сторона ведущая расследование, принимающая решения, и исполняющая его, это разные люди. Никто не запрещает изучать человека вплоть до запроса документов. Все же это довольно редкий случай, как следствие он не несет больших накладных расходов.