В общем, со многими VPN/прокси сразу пишет что доступ запрещен. Сейчас нашел одно прокси-расширение для браузера, с которым пока работает. Не знаю сколько проработает...
До сих пор я толком не нашел, какие же там нужны аппаратные ресурсы. Сколько современных видеокарт нужно, чтобы собрать аналог ChatGPT, не уступающий по вычислительной мощности, но рассчитанный не на обслуживание трафика со всего мира, а на личное применение? Возможно ли например такое, что группа людей скооперируется и организует себе такой персональный ИИ на основе open-source решений?
У меня сейчас возникла более актуальная проблема: нейросеть ChatGPT меня забанила(( Регистрировался и заходил только через оракловский бесплатный VPS в Ирландии, со специального отдельного браузера Firefox portable, спрашивал только на английском... и тут такое. Я уже осознал что для меня это очень важный и полезный инструмент, надо обязательно как-то получить туда доступ. Бесплатные VPN скорее всего даже рассматривать не имеет смысла, придется теперь еще и за VPS платить.
Вот кстати по поводу дизайна. Тогда прочитал статью с описанием этой новой фичи, да и забыл. Недавно вспомнил, полез в профиль... и не могу найти где же она. Все облазил. А оказалось что это малоприметная одинокая надпись "Whois". Вот прямо сверху есть меню, почему в нем не разместить? И назвать как-то иначе, "whois" это вроде как сетевой протокол для получения информации о владельцах доменов, к чему это здесь? Там в меню справа имеется кнопка "Ещё", раскрывающаяся в "подписки" и "подписчики". Можно добавить в нее (тогда хотя-бы будет оправдано название "Ещё", а то ради двух пунктов городить целое меню кажется странным. А так будет целых 9 пунктов, уже что-то.
А еще Юникод несовершенен)) Как впрочем и все технологии, он имеет свои недостатки, которые становятся понятны только по прошествии некоторого времени, когда появляется какой-то материал для осмысления и множество идей, как можно было сделать лучше. Но боюсь, что это не тот случай - делать новую кодировку общемирового масштаба просто ради перфекционизма никто не будет...
Кстати интересно, какие там задействованы вычислительные мощности? И каково распределение этих мощностей между задачами "работа языковой модели как таковой" и "одновременное обслуживание миллионов пользователей"? Т.е. есть ли потенциальная возможность, что какой нибудь энтузиаст сможет реализовать подобный чат-бот у себя дома, для личного использования?
-- Как стать программистом с нуля? -- Изучить C, C++, C#, Java, Go, Rust, Swift, PHP, Python, Ruby или JavaScript. -- Как стать программистом с единицы? -- Изучить Psacal, Delphi, Fortran, COBOL, MATLAB, R или Julia
С такими 3D моделями идеально было бы запилить какую-нибудь психоделическо-постапокалиптическую игру)) Здания, растекающиеся в какую-то слизь, ну и монстров туда соответствующих.
Завидую людям которые в этом хорошо разбираются) А вообще, существуют ли какие-то учебники или онлайн ресурсы для обучения высшей метаматике? Здесь смысл в том, что все книги - это в основном поток формул, изредка разбавленный словами "давайте рассмотрим", "следовательно", "что и требовалось доказать":) А хочется большего. Во-первых, каждое понятие должно сопровождаться наглядными примерами. Во-вторых, иллюстрации, цветные и даже анимированные/интерактивные. Чтобы вот прямо буквально словами расписано и на картинках разрисовано как та или иная формула работает. В третьих, чтобы было показано как формула НЕ работает, если в ней допустить ошибки (переставить те же кванторы). По возможности, смысл каждой теоремы должен также выражаться не только формулой, но и словами, т.е. что означает та или иная теорема "на пальцах", на уровне ассоциаций. Пусть с упрощениями (о чем конечно нужно предупредить). Но мозг - не точный процессор, а нейросеть, и ему так легче.
А 280 тысяч часов это много или мало, в сравнении со всей музыкой мира? Нужно тренировать нейросети на всех музыкальных произведениях мира (в черту копирайт, уж что-что, а нейросеть - это ну очень производное произведение). Надеюсь, у Гугла есть подобная фонотека (книги же они вроде когда-то сканировали для google books) И еще, у музыки сложно с метаинформацией. "Жанры" это ну очень грубая классификация. И вообще с ней сложно (не только у музыки), а для творчества очень важно как-то кодифицировать человеческие эмоции, которые возникают при восприятии творческого произведения. А вот как это сделать? И кто это может сделать, кроме людей? Я даже не знаю, проводились ли подобные исследования.
Можно, но это не интегрировано с ФС, на работу с которой ориентирован весь другой софт. Еще можно держать БД параллельно ФС, но тогда каждая операция с ФС должна как-то отражаться в БД. А это требует встраивания в ядро ОС. Всякие файловые органайзеры, обзоры которых на Хабре были, на такое не способны. Они даже на использование ADS не способны, хотя это вообще штатная фича NTFS. Или имена файлов коверкают для размещения в них метаинформации, или надеются что юзер кроме как предлагаемой софтиной, ничем больше с ФС работать не будет.
Я не специалист по нейросетям, но возник вопрос по токенизации. Получается, что текст это просто поток букв и он подается в нейросеть? А почему не применяют построение синтаксического дерева на "универсальном промежуточном языке", как при машинном переводе? Просто решили, что за счет огромных вычислительных мощностей можно и этот этап скормить "черному ящику" нейросети? Но как мне кажется, вот такие число количественные решения все-же не очень хороши. Мы теряем в качестве, упускаем точные аналитические методы, а потом гадаем - а можно ли доверять нейросети?
Я не то чтобы жду, но идея интересная (ну и я сам себе запилил простенькую систему тегов на ADS). Джвадцать лет назад вполне могло не хватать вычислительных ресурсов для комфортной работы подобной технологии. Кто знает, может у МС еще остались мысли по реализации чего-то подобного?
Никаких интересных фич, связанных с доступом к файловой системе как к базе данных (что предполагалось реализовать когда-то в WinFS) здесь, как я понимаю, нет?
Жалко... следили бы лучше просто за трафиком, пусть был бы какой-то лимит в месяц для бесплатных контейнеров, пусть даже совсем небольшой. Если прокси используется только для ограниченного веб-серфинга, что в этом плохого и чем это с точки зрения нагрузки отличатся от использования контейнера для любых других целей??
Очевидно, при обучении сети тексты должны маркироваться коэффициентом достоверности. Если это научная книга - то коэффициент максимальный, если статья в чьем-то бложике - минимальный. И кстати, здесь мы опять подходим к вопросам семантического интернета - информация должна быть не просто потоком букв, а осмысленно размеченной. Только теперь семантика потребовалась не людям, а машинам, чего и следовало ожидать. Если обучать такие сети на развлекательном контенте - ну и результат будет развлекательным. А если допустим обучать на учебниках и научных трудах - то получим мощнейший научный инструмент. Жалко только что публичного доступа к нему не будет...
Скорее о дикой популярности. Какой бы там ни был сервер, он не сравнится с огромными датацентрами того же Гугла по всему миру. А масштабируемость скорее всего банальная - просто копируют все данные и запускают в параллель еще серверы. Это не "децентрализованная сеть", разумеется.
В общем, со многими VPN/прокси сразу пишет что доступ запрещен. Сейчас нашел одно прокси-расширение для браузера, с которым пока работает. Не знаю сколько проработает...
До сих пор я толком не нашел, какие же там нужны аппаратные ресурсы. Сколько современных видеокарт нужно, чтобы собрать аналог ChatGPT, не уступающий по вычислительной мощности, но рассчитанный не на обслуживание трафика со всего мира, а на личное применение? Возможно ли например такое, что группа людей скооперируется и организует себе такой персональный ИИ на основе open-source решений?
Попытался залогиниться без VPN, выдал вот это:
Oops!
OpenAI's services are not available in your country. (error=unsupported_country)
У меня сейчас возникла более актуальная проблема: нейросеть ChatGPT меня забанила((
Регистрировался и заходил только через оракловский бесплатный VPS в Ирландии, со специального отдельного браузера Firefox portable, спрашивал только на английском... и тут такое. Я уже осознал что для меня это очень важный и полезный инструмент, надо обязательно как-то получить туда доступ. Бесплатные VPN скорее всего даже рассматривать не имеет смысла, придется теперь еще и за VPS платить.
Вот кстати по поводу дизайна. Тогда прочитал статью с описанием этой новой фичи, да и забыл. Недавно вспомнил, полез в профиль... и не могу найти где же она. Все облазил. А оказалось что это малоприметная одинокая надпись "Whois". Вот прямо сверху есть меню, почему в нем не разместить? И назвать как-то иначе, "whois" это вроде как сетевой протокол для получения информации о владельцах доменов, к чему это здесь? Там в меню справа имеется кнопка "Ещё", раскрывающаяся в "подписки" и "подписчики". Можно добавить в нее (тогда хотя-бы будет оправдано название "Ещё", а то ради двух пунктов городить целое меню кажется странным. А так будет целых 9 пунктов, уже что-то.
Ну а как нейросеть еще может обучаться? У нее нет других источников информации, кроме интернета и пользователей.
А еще Юникод несовершенен)) Как впрочем и все технологии, он имеет свои недостатки, которые становятся понятны только по прошествии некоторого времени, когда появляется какой-то материал для осмысления и множество идей, как можно было сделать лучше. Но боюсь, что это не тот случай - делать новую кодировку общемирового масштаба просто ради перфекционизма никто не будет...
Кстати интересно, какие там задействованы вычислительные мощности? И каково распределение этих мощностей между задачами "работа языковой модели как таковой" и "одновременное обслуживание миллионов пользователей"? Т.е. есть ли потенциальная возможность, что какой нибудь энтузиаст сможет реализовать подобный чат-бот у себя дома, для личного использования?
-- Как стать программистом с нуля?
-- Изучить C, C++, C#, Java, Go, Rust, Swift, PHP, Python, Ruby или JavaScript.
-- Как стать программистом с единицы?
-- Изучить Psacal, Delphi, Fortran, COBOL, MATLAB, R или Julia
С такими 3D моделями идеально было бы запилить какую-нибудь психоделическо-постапокалиптическую игру)) Здания, растекающиеся в какую-то слизь, ну и монстров туда соответствующих.
Завидую людям которые в этом хорошо разбираются) А вообще, существуют ли какие-то учебники или онлайн ресурсы для обучения высшей метаматике? Здесь смысл в том, что все книги - это в основном поток формул, изредка разбавленный словами "давайте рассмотрим", "следовательно", "что и требовалось доказать":) А хочется большего. Во-первых, каждое понятие должно сопровождаться наглядными примерами. Во-вторых, иллюстрации, цветные и даже анимированные/интерактивные. Чтобы вот прямо буквально словами расписано и на картинках разрисовано как та или иная формула работает. В третьих, чтобы было показано как формула НЕ работает, если в ней допустить ошибки (переставить те же кванторы). По возможности, смысл каждой теоремы должен также выражаться не только формулой, но и словами, т.е. что означает та или иная теорема "на пальцах", на уровне ассоциаций. Пусть с упрощениями (о чем конечно нужно предупредить). Но мозг - не точный процессор, а нейросеть, и ему так легче.
Добавить в конструкцию расталкиватель пассажиров)
А 280 тысяч часов это много или мало, в сравнении со всей музыкой мира? Нужно тренировать нейросети на всех музыкальных произведениях мира (в черту копирайт, уж что-что, а нейросеть - это ну очень производное произведение). Надеюсь, у Гугла есть подобная фонотека (книги же они вроде когда-то сканировали для google books)
И еще, у музыки сложно с метаинформацией. "Жанры" это ну очень грубая классификация. И вообще с ней сложно (не только у музыки), а для творчества очень важно как-то кодифицировать человеческие эмоции, которые возникают при восприятии творческого произведения. А вот как это сделать? И кто это может сделать, кроме людей? Я даже не знаю, проводились ли подобные исследования.
Можно, но это не интегрировано с ФС, на работу с которой ориентирован весь другой софт.
Еще можно держать БД параллельно ФС, но тогда каждая операция с ФС должна как-то отражаться в БД. А это требует встраивания в ядро ОС. Всякие файловые органайзеры, обзоры которых на Хабре были, на такое не способны. Они даже на использование ADS не способны, хотя это вообще штатная фича NTFS. Или имена файлов коверкают для размещения в них метаинформации, или надеются что юзер кроме как предлагаемой софтиной, ничем больше с ФС работать не будет.
Я не специалист по нейросетям, но возник вопрос по токенизации. Получается, что текст это просто поток букв и он подается в нейросеть? А почему не применяют построение синтаксического дерева на "универсальном промежуточном языке", как при машинном переводе? Просто решили, что за счет огромных вычислительных мощностей можно и этот этап скормить "черному ящику" нейросети? Но как мне кажется, вот такие число количественные решения все-же не очень хороши. Мы теряем в качестве, упускаем точные аналитические методы, а потом гадаем - а можно ли доверять нейросети?
Я не то чтобы жду, но идея интересная (ну и я сам себе запилил простенькую систему тегов на ADS). Джвадцать лет назад вполне могло не хватать вычислительных ресурсов для комфортной работы подобной технологии. Кто знает, может у МС еще остались мысли по реализации чего-то подобного?
Никаких интересных фич, связанных с доступом к файловой системе как к базе данных (что предполагалось реализовать когда-то в WinFS) здесь, как я понимаю, нет?
Жалко... следили бы лучше просто за трафиком, пусть был бы какой-то лимит в месяц для бесплатных контейнеров, пусть даже совсем небольшой. Если прокси используется только для ограниченного веб-серфинга, что в этом плохого и чем это с точки зрения нагрузки отличатся от использования контейнера для любых других целей??
Очевидно, при обучении сети тексты должны маркироваться коэффициентом достоверности. Если это научная книга - то коэффициент максимальный, если статья в чьем-то бложике - минимальный. И кстати, здесь мы опять подходим к вопросам семантического интернета - информация должна быть не просто потоком букв, а осмысленно размеченной. Только теперь семантика потребовалась не людям, а машинам, чего и следовало ожидать.
Если обучать такие сети на развлекательном контенте - ну и результат будет развлекательным. А если допустим обучать на учебниках и научных трудах - то получим мощнейший научный инструмент. Жалко только что публичного доступа к нему не будет...
Скорее о дикой популярности. Какой бы там ни был сервер, он не сравнится с огромными датацентрами того же Гугла по всему миру. А масштабируемость скорее всего банальная - просто копируют все данные и запускают в параллель еще серверы. Это не "децентрализованная сеть", разумеется.