Понятно что РКН как главная дубинка пропаганды будет получать овер бюджеты на все что угодно. Пенсии могут перестать платить но их бюджет все равно останется космическимим. Несмотря на низкую эффективность их действий и мер. И полную безполезность в глазах рядового гражданина. Как сказал поэт - о времена о нравы.
Госдеп США говно использовать не будет. Значит месенджер действительно крипто православный и безопасный. Хорошая реклама. Но гики им все равно не пользуются ведь есть tox и threema :)
https://www.anthropic.com/ Самая главная в этом контексте. Потому что 100К токенов и доступ в интернет. На ней поисковые аналитические системы лучше всего выходят. Опять же суммирование с окном 100К намного лучше на больших текстах чем у гпт. Которую надо костылять и грузить частями.
Коммерческие структуры выкручиваются по обстоятельствам, стремясь заработать средства, для чего необходимо решение конкретной проблемы. А специалисты, владеющие нейросетевыми моделями, статан не учится по роликам с ютуба несмотря на общий интерес к данной области. Владение нейронными сетями не приобретается за две недели просмотра уроков на YouTube. Даже если утрировать опыт на собеседовании, его неоткуда взять, и потому в данном контексте будут активно применяться языковые модели такими способами, о которых мы пока даже не предполагаем. Они будут использоваться таким образом, какой мы еще не можем представить
Я, в свою очередь, из интереса экспериментировал с языковыми моделями, методами Хеймана и методами Шаталова в области обучения, и они действительно обучаются достаточно успешно. Теоретически, чатбот на базе GPT может сам себя обучать новым задачам и знаниям. То есть, он может сам себя обучать, сам себя контролировать, сам себя направлять и корректировать.
P. S. Вопрос к автору. Посмотрел ваши вакансии, а какие требования к английскому языку у вас? У меня есть опыт торговли криптовалютой с использованием торговых ботов. Высоко частотных правда сам не писал, только пользовался. А на питоне много чего для торговли писал от сантимент анализ до Гипероптимизаторов обычных стратегий.
Конфигурации заранее написаны. Вы только выбираете какой проект и какой конфиг. И если прочитаете текст в начале статьи, то не я придумал мотивацию. Я далек от таких материй.
про с_top практически в точку
есть уже функционал, который занимается мониторингом внутри контейнера. Снаружи контейнера ,собиранием логов отчётов и получается, что его нужно копировать каждый свой новый проект, и я его со временем просто весь Перенесу в этого Бота и они он будет там. А так он есть и сейчас тоже работает и очень хорошо.
Ничего святого не осталось. Пет проекты нужны что бы дарить тепло и радость от осознания того что ты делаешь не очередной никому ненужный стартап из говна и палок ради зарплаты, а творишь и создаёшь что то удивительное, пускай даже только для себя. Ненадо их подгонять не под какие стандарты и требования кроме личных. Ну а тех кто делает Пет проекты что бы что то показывать работодателю мне жаль ( Выгорайте быстрее...
Спасибо за хорошую статью. У меня телеграм бот для chat gpt практически один в один на подобной архитектуре написан. Правда я вместо пулинга использую Web хуки. И такого мощного мониторинга и масштабирования нет. Как раз работаю над этим. Зато есть обновление через github action - > docker hub при мерже в мастер ветку и куча команд для ручного мониторинга / перезапуска во время работы.
Модель сломалась в тот момент когда начали раскатывать последнее обновление в котором пользователь может задавать для неё не сбрасываемый контекст. Типа один раз сказал что надо писать на python, она всегда будет писать на python без уточнений. Но обнову на всех так и не выкатили. Перемудрили.
Если честно, я лично более пессимистичен, чем автор публикации. Мне почему-то кажется, что мы, в общем-то, живем в эпоху, когда человечество достигло своего максимального прогресса, и никакого следующего интернета нас уже не ждет. Потому что, как правильно сказал автор, генеративные сети генерируют контент на основе того, что уже есть. Новый контент не создается, потому что это бесполезно, состязаться с сетями, которые могут по 200 статей в день писать и будут тебя закрывать везде. Писательство как жанр умрет, книги как жанр умрут, технической литературы не будет, распространение знания прекратится, и будут бегать только обалдевшие сиошники, у которых будет план 800 миллиардов тысяч статей каждый час, и читать эти статьи будет тоже искусственный интеллект, потому что люди на эту помойку просто забьют болт. К сожалению, качество контента, которое генерируют нейронки, оно не то, что оно низкое, они не генерируют гущу, они не генерируют знания. Это мертвые текста. Они могут писать очень красиво, стилистически, использовать красивые обороты выражения, но они не наполняют, не насыщают контент, который они пишут, знаниями, как это делает человек, который пишет какую-либо статью или книжку и так далее. Научить этому я не знаю, возможно ли или нет, мне кажется, что нет, что человек, когда генерирует текст, он вкладывает в него просто реально свой опыт и свою жизненную историю, а у искусственного интеллекта её не может быть, он просто научен на готовых данных, у него никакого опыта не существует. И из-за этого, конечно, читать всё это очень грустно, я даже на самом деле без всяких детекторов и сервисов определяю всегда текст, написанный с помощью нейронок и стараюсь уходить с таких сервисов, где таких текстов становится много, потому что пошло через свои мозги такие тексты прокручивать. Хотя сам я большой, как ни странно, сторонник внедрения их как инструментов, у себя на работе я очень много бюрократической возни переложил на них, я очень доволен, как они борются с бюрократией и как они способны упорядочивать информацию, инструмент очень классный, но видимо не для создания нового контента, а именно для работы с уже существующей информацией. И здесь, как мне кажется, решение есть одно и, к сожалению, большому оно недостижимо – это люди должны сделать свой осознанный выбор в пользу контента, который пишет человек, а не нейронная сеть. Если вот такая культурная трансформация в обществе произойдет, что невозможно, потому что у нас люди готовы любой кал в себе в уши и головы заливать. Культуры уважения к своему интеллекту человек еще не достиг.
Но зато у него есть возможность по своему собственному контексту искать своим собственным поисковым движком, оптимизированным под него самого. И так же можно добавлять новый функционал не меняя дизайн входного интерфейса для данных. Что то же на самом деле важно.
Цена вопроса не известна?
ECH нужная технология. Она увеличивает уровень безопасности. Ее отключение нежелательно.
Все понял. Причём тут habr не понял :(
В выборгском районе даже встать на учёт, при личной явке в военкомат проблема :) Два года пытаюсь. Немогу отстоять очередь и ухожу.
Понятно что РКН как главная дубинка пропаганды будет получать овер бюджеты на все что угодно. Пенсии могут перестать платить но их бюджет все равно останется космическимим. Несмотря на низкую эффективность их действий и мер. И полную безполезность в глазах рядового гражданина. Как сказал поэт - о времена о нравы.
Пример брендов которые остались в тик токе и обогнали конкурентов можно?)
Госдеп США говно использовать не будет. Значит месенджер действительно крипто православный и безопасный. Хорошая реклама. Но гики им все равно не пользуются ведь есть tox и threema :)
Вся жизнь игра, а люди в ней актёры.
Спасибо за статью. Очень интересный взгляд. Мне понравилось.
Подключить firebase сервисы. И все :)
Говорят, когда кто то называет докер виртуальной машиной, где то происходить утечка персональных данных :-)
https://www.anthropic.com/ Самая главная в этом контексте. Потому что 100К токенов и доступ в интернет. На ней поисковые аналитические системы лучше всего выходят. Опять же суммирование с окном 100К намного лучше на больших текстах чем у гпт. Которую надо костылять и грузить частями.
Коммерческие структуры выкручиваются по обстоятельствам, стремясь заработать средства, для чего необходимо решение конкретной проблемы. А специалисты, владеющие нейросетевыми моделями, статан не учится по роликам с ютуба несмотря на общий интерес к данной области. Владение нейронными сетями не приобретается за две недели просмотра уроков на YouTube. Даже если утрировать опыт на собеседовании, его неоткуда взять, и потому в данном контексте будут активно применяться языковые модели такими способами, о которых мы пока даже не предполагаем. Они будут использоваться таким образом, какой мы еще не можем представить
Я, в свою очередь, из интереса экспериментировал с языковыми моделями, методами Хеймана и методами Шаталова в области обучения, и они действительно обучаются достаточно успешно. Теоретически, чатбот на базе GPT может сам себя обучать новым задачам и знаниям. То есть, он может сам себя обучать, сам себя контролировать, сам себя направлять и корректировать.
P. S. Вопрос к автору. Посмотрел ваши вакансии, а какие требования к английскому языку у вас? У меня есть опыт торговли криптовалютой с использованием торговых ботов. Высоко частотных правда сам не писал, только пользовался. А на питоне много чего для торговли писал от сантимент анализ до Гипероптимизаторов обычных стратегий.
Странно что никто не написал что внутри докер контейнера это работать не будет. Видимо сам проект никто не посмотрел )
Конфигурации заранее написаны. Вы только выбираете какой проект и какой конфиг. И если прочитаете текст в начале статьи, то не я придумал мотивацию. Я далек от таких материй.
про с_top практически в точку
есть уже функционал, который занимается мониторингом внутри контейнера. Снаружи контейнера ,собиранием логов отчётов и получается, что его нужно копировать каждый свой новый проект, и я его со временем просто весь Перенесу в этого Бота и они он будет там. А так он есть и сейчас тоже работает и очень хорошо.
Ничего святого не осталось. Пет проекты нужны что бы дарить тепло и радость от осознания того что ты делаешь не очередной никому ненужный стартап из говна и палок ради зарплаты, а творишь и создаёшь что то удивительное, пускай даже только для себя. Ненадо их подгонять не под какие стандарты и требования кроме личных. Ну а тех кто делает Пет проекты что бы что то показывать работодателю мне жаль ( Выгорайте быстрее...
Вот так надо оформлять read me для пет проектов
https://github.com/torvalds/linux
Спасибо за хорошую статью. У меня телеграм бот для chat gpt практически один в один на подобной архитектуре написан. Правда я вместо пулинга использую Web хуки. И такого мощного мониторинга и масштабирования нет. Как раз работаю над этим. Зато есть обновление через github action - > docker hub при мерже в мастер ветку и куча команд для ручного мониторинга / перезапуска во время работы.
h
Модель сломалась в тот момент когда начали раскатывать последнее обновление в котором пользователь может задавать для неё не сбрасываемый контекст. Типа один раз сказал что надо писать на python, она всегда будет писать на python без уточнений. Но обнову на всех так и не выкатили. Перемудрили.
Если честно, я лично более пессимистичен, чем автор публикации. Мне почему-то кажется, что мы, в общем-то, живем в эпоху, когда человечество достигло своего максимального прогресса, и никакого следующего интернета нас уже не ждет. Потому что, как правильно сказал автор, генеративные сети генерируют контент на основе того, что уже есть. Новый контент не создается, потому что это бесполезно, состязаться с сетями, которые могут по 200 статей в день писать и будут тебя закрывать везде. Писательство как жанр умрет, книги как жанр умрут, технической литературы не будет, распространение знания прекратится, и будут бегать только обалдевшие сиошники, у которых будет план 800 миллиардов тысяч статей каждый час, и читать эти статьи будет тоже искусственный интеллект, потому что люди на эту помойку просто забьют болт.
К сожалению, качество контента, которое генерируют нейронки, оно не то, что оно низкое, они не генерируют гущу, они не генерируют знания. Это мертвые текста. Они могут писать очень красиво, стилистически, использовать красивые обороты выражения, но они не наполняют, не насыщают контент, который они пишут, знаниями, как это делает человек, который пишет какую-либо статью или книжку и так далее. Научить этому я не знаю, возможно ли или нет, мне кажется, что нет, что человек, когда генерирует текст, он вкладывает в него просто реально свой опыт и свою жизненную историю, а у искусственного интеллекта её не может быть, он просто научен на готовых данных, у него никакого опыта не существует. И из-за этого, конечно, читать всё это очень грустно, я даже на самом деле без всяких детекторов и сервисов определяю всегда текст, написанный с помощью нейронок и стараюсь уходить с таких сервисов, где таких текстов становится много, потому что пошло через свои мозги такие тексты прокручивать.
Хотя сам я большой, как ни странно, сторонник внедрения их как инструментов, у себя на работе я очень много бюрократической возни переложил на них, я очень доволен, как они борются с бюрократией и как они способны упорядочивать информацию, инструмент очень классный, но видимо не для создания нового контента, а именно для работы с уже существующей информацией.
И здесь, как мне кажется, решение есть одно и, к сожалению, большому оно недостижимо – это люди должны сделать свой осознанный выбор в пользу контента, который пишет человек, а не нейронная сеть. Если вот такая культурная трансформация в обществе произойдет, что невозможно, потому что у нас люди готовы любой кал в себе в уши и головы заливать. Культуры уважения к своему интеллекту человек еще не достиг.
Но зато у него есть возможность по своему собственному контексту искать своим собственным поисковым движком, оптимизированным под него самого. И так же можно добавлять новый функционал не меняя дизайн входного интерфейса для данных. Что то же на самом деле важно.