Если модель нельзя использовать в любых целях, кроме некоммерческих и исследовательских, это делает её кирпичом, который, по-сути, никому не нужен. Более того, выход модели нельзя модифицировать (к примеру, менять alignment), а это нарушает ещё один тенет опенсорса. Когда вы выкладываете модель для рассмотрения, пожалуйста, хотя бы не обманывайте людей маркетингом.
Печально, что такие релизы размывают определение и подрывают доверие к и без того замученному сообществу OpenSource
На самом деле Википедия улучшается с каждым годом, тем более что её в последнее время всё сильнее модерируют те же боты, которые проверяют источники на важных страницах или пресекают вандализм. Википедия получает огромное финансирование со стороны корпораций, которые понимают, насколько обширен этот кладезь знаний. Википедия присутствует буквально во всех датасетах для обучения больших языковых моделей.
Кроме того, я же упомянул, что модель после прочтения стала искать источники в настоящих научных журналах и сравнивать их между собой, это показывает, что у модели в какой-то степени присутствует критическое мышление
Сегодня для теста я задал этой нейронке (AutoGPT) задание создать самовоспроизводящихся нанороботов. Она начала копать в правильном направлении, почитала Википедию, историю их развития, даже начала скачивать и читать научные статьи через суммаризацию, но к сожалению со временем она зациклилась и снова начала читать википедию, гуглить и т.д.
Всё-таки длина контекста её сильно ограничивает. Впрочем, когда я увеличил ей параметр "температуры" и разрешил исполнять команды на компьютере, она немножко поумнела и добралась до ксеноботов (живых наноботов из клеток лягушек), но потом всё равно зациклилась.
Лично мне получилось зайти только с 3го VPN-адреса. На двух других при заходе на сайт ChatGPT выставлялось сообщение с ошибкой, что сервис OpenAI недоступен с этого адреса, а под этим сообщением писались все детали подключения: IP, User agent, браузер, система и т.д.
А OpenAI разве не пресекают такое использование их чатбота? Мне казалось, там наоборот довольно жёсткий контроль использования их GPT моделей, проверка VPN-ов и другой fingerprinting
Есть репозиторий для дообучения от ExponentialML https://github.com/ExponentialML/Text-To-Video-Finetuning. Он работает по принципу Tune-A-Video, то есть обучается не вся нейросеть, а только слои CrossAttention (то, что связывает фичи текста с фичами видео). Написано, что точно работает для 3090, и если включить в скрипте пару оптимизаций, то можно уложиться в 16 гб VRAM.
Скорее потому что на стоковых видео. А с ними хорошо размеченных датасетов гораздо меньше, чем картиночных. Тем более, что ресурсов для хранения и разметки требуется больше.
Если я правильно помню, в своей статье авторы упоминали датасет от LAION, а также Webvid. Shutterstock, скорее всего, попал в Лайоновский, так как уже был казус со Stable Diffusion-ом, выдающим ватермарки Шаттерстока и Getty Images (последние даже собирались с ними судиться). А парсить Ютуб для исследователей, как мне кажется, было бы ещё более сомнительной практикой
Нельзя модифицировать в **любых** целях, где любых означает всех
В определении OpenSource AI явно есть пункт "Modify the system for any purpose,including to change its output. "
Простите, Яндекс, но, судя по лицезии модели, это НЕ OpenSource по определению, и даже не OpenSourceAI.
Если модель нельзя использовать в любых целях, кроме некоммерческих и исследовательских, это делает её кирпичом, который, по-сути, никому не нужен. Более того, выход модели нельзя модифицировать (к примеру, менять alignment), а это нарушает ещё один тенет опенсорса. Когда вы выкладываете модель для рассмотрения, пожалуйста, хотя бы не обманывайте людей маркетингом.
Печально, что такие релизы размывают определение и подрывают доверие к и без того замученному сообществу OpenSource
На самом деле Википедия улучшается с каждым годом, тем более что её в последнее время всё сильнее модерируют те же боты, которые проверяют источники на важных страницах или пресекают вандализм. Википедия получает огромное финансирование со стороны корпораций, которые понимают, насколько обширен этот кладезь знаний. Википедия присутствует буквально во всех датасетах для обучения больших языковых моделей.
Кроме того, я же упомянул, что модель после прочтения стала искать источники в настоящих научных журналах и сравнивать их между собой, это показывает, что у модели в какой-то степени присутствует критическое мышление
Сегодня для теста я задал этой нейронке (AutoGPT) задание создать самовоспроизводящихся нанороботов. Она начала копать в правильном направлении, почитала Википедию, историю их развития, даже начала скачивать и читать научные статьи через суммаризацию, но к сожалению со временем она зациклилась и снова начала читать википедию, гуглить и т.д.
Всё-таки длина контекста её сильно ограничивает. Впрочем, когда я увеличил ей параметр "температуры" и разрешил исполнять команды на компьютере, она немножко поумнела и добралась до ксеноботов (живых наноботов из клеток лягушек), но потом всё равно зациклилась.
Вот лог, кому интересно https://gist.github.com/kabachuha/bbd9835466f9d4df76a6913aab1ed70f
Лично мне получилось зайти только с 3го VPN-адреса. На двух других при заходе на сайт ChatGPT выставлялось сообщение с ошибкой, что сервис OpenAI недоступен с этого адреса, а под этим сообщением писались все детали подключения: IP, User agent, браузер, система и т.д.
А OpenAI разве не пресекают такое использование их чатбота? Мне казалось, там наоборот довольно жёсткий контроль использования их GPT моделей, проверка VPN-ов и другой fingerprinting
Да, на это есть Pull-request (но там необходимо сделать пару правок) https://github.com/deforum-art/sd-webui-text2video/pull/74
Есть репозиторий для дообучения от ExponentialML https://github.com/ExponentialML/Text-To-Video-Finetuning. Он работает по принципу Tune-A-Video, то есть обучается не вся нейросеть, а только слои CrossAttention (то, что связывает фичи текста с фичами видео). Написано, что точно работает для 3090, и если включить в скрипте пару оптимизаций, то можно уложиться в 16 гб VRAM.
Или же он стоит, но не добавлен в PATH (см. переменные среды в Windows), как, вероятно, и питон
Скорее потому что на стоковых видео. А с ними хорошо размеченных датасетов гораздо меньше, чем картиночных. Тем более, что ресурсов для хранения и разметки требуется больше.
Если я правильно помню, в своей статье авторы упоминали датасет от LAION, а также Webvid. Shutterstock, скорее всего, попал в Лайоновский, так как уже был казус со Stable Diffusion-ом, выдающим ватермарки Шаттерстока и Getty Images (последние даже собирались с ними судиться). А парсить Ютуб для исследователей, как мне кажется, было бы ещё более сомнительной практикой