Comments 21
ChatGPT прелесть, жалко только что сервер регулярно перегружен. Надеюсь на то что крупные игроки типа Гугла выпустят конкурентов, и процесс пойдет ускоренными темпами. Думаю, распознавание и создание изображений, звука/голоса и видео тоже в ближайшие 10 лет сделают.
Единственное что беспокоит - это проблематичность открытой и свободной реализации такой технологии силами Сообщества. Только если какая-то децентрализованная нейросеть, но раз уж обычный децентрализованный интернет толком не сделали, то и это вряд ли осилят. А так бы наплевать на все копирайты, загрузить туда весь сайхаб с либгеном...
А вот это "сервер перегружен" говорит о некой немасштабируемости ChatGPT? Можно ли поставить два сервера, или кластер? Оно ведь все равно не запоминает с кем о чем общается...
Силами сообщества сравнимые мощности никак не собрать. Даже если наберется достаточно энтузиастов, пока будет вестись разработка и обучение, OpenAI уйдет очень далеко вперед.
ChatGPT успешно сдаёт экзамены на получение медицинских лицензий
при должном обучении ChatGPT может сдать
отвечала на вопросы с точностью более 50%, а для успешного прохождения USMLE необходимо набрать 60%. Таким образом, языковая модель была близка к порогу сдачи
Вот, казалось бы, заголовок и содержание какой-то статьи в интернете – такая не имеющая, по большому счёту, значения мелочь, но это почему-то расстраивает. Возможно как раз потому, что это не имеющая значения мелочь. И, как обычно, в лучших традициях, нельзя просто сказать, что в заголовке откровенная ложь: автор может просто сказать, что здесь "сдаёт" – это процесс, а не результат, и для нейросети ChatGPT сдаёт действительно "успешно". А то, что контекст не располагает к такому прочтению – ну, читатель сам виноват. Так что окажусь ещё и виноватым)
И почему так – понятно. И что ничего не изменится – тоже. Так что просто читаешь статью, и становится немного грустно. Пойду дальше.
Применение AI в медицине приведет прям к прорыву, я даже не говорю о способах диагностики аутоиммунной волчанки в реанимации, а про бытовое применение. Когда, вместо того чтобы записываться к терапевту через 2 недели и торчать в очереди, а потом получить рецепт с прикладыванием подорожника, ты, задав дома вопрос умной колонке, или показав в камеру сыпь пониже спины, получаешь точный и исчерпывающий план лечения.
Но вот пугает верифицируемость всего этого, даже если поначалу обяжут живому врачу проверять диагноз, мы же знаем, что очень скоро, они будут подтверждать не глядя. А потом какой нить умник, накопирайтит в интернетах, что простуду можно лечить синильной кислотой, сетка обучится и люди начнут помирать пачками.
Очевидно, при обучении сети тексты должны маркироваться коэффициентом достоверности. Если это научная книга - то коэффициент максимальный, если статья в чьем-то бложике - минимальный. И кстати, здесь мы опять подходим к вопросам семантического интернета - информация должна быть не просто потоком букв, а осмысленно размеченной. Только теперь семантика потребовалась не людям, а машинам, чего и следовало ожидать.
Если обучать такие сети на развлекательном контенте - ну и результат будет развлекательным. А если допустим обучать на учебниках и научных трудах - то получим мощнейший научный инструмент. Жалко только что публичного доступа к нему не будет...
Если Вы про изоляцию и кластеризацию обучающей выборки, чтобы текст шутника не соответствовал обучающей выборки для сетки, если этот текст - чушь, то это уже распознавание образа. Т.е. может ли данная точка X относится к классу X. И если да, то делаем по ней прогноз значения Y. Если нет, не включаем её вообще. Но ведь не зря же появилась псевдонаука. Умник тоже не дурак и постарается придать своему тексту с синильной кислотой правдоподобность, чтобы функция разработчика нейронки не заметила разницу, и также отнесла данную чушь к обучающей выборки. И возвращала бы в качестве рецепта Y. И в итоге, кто-то всё-таки получит совет воспользоваться кислотой)))
Про интерполяцию и экстраполяцию функций, чтобы подобрать коэффициенты достоверности для "потраченного" текста (с шутками от Ваномаса) я уже не говорю.
Хорошо если это будет умник, а не сама сеть решит вдруг позабавиться.
"профессиональные" нейросети должны обучатся на тех же материалах что и студенты этой профессии, а не интернете. В статье стоило вспомнить Watson от IBM. Который конкретно под медицину и создавался.
Ну выкатит тебе нейросеть те же десять вариантов от фигня до рака, со слов о сыпи или симптома "болит живот", тоже самое что и нагуглить можно. Она же оттуда же инфу берет, а не с венеры
Да и потом медицина штука такая, иногда надо посмотреть, пощупать, да и пациенту вполне кажется одно, а вот объективно всё совсем не так.
Но вот пугает верифицируемость всего этого, даже если поначалу обяжут живому врачу проверять диагноз, мы же знаем, что очень скоро, они будут подтверждать не глядя.
А что с верифицируемостью решений, которые врачи делают? Или они тоже не ошибаются? Я вот знаю кучу примеров обратного. Нужно смотреть на процент неверных решений и сравнивать с тем, что есть сейчас (а это довольно сложно).
Согласен, тут так же как: совершает ли автопилот меньше ошибок чем средний водитель. И уровень мед. персонала и правда страшно низкий.
Но я хотя бы хочу верить, что когда они варят свое зелье думают головой, и могут отдёрнуть себя при появлении явной дичи, здесь же черный ящик...наверное, это во мне говорит страх потери иллюзии контроля.
Скорее, боязнь, что обученный на разных текстах (среди которых могут быть и сомнительные) советчик может насоветовать такого, что будет хуже самолечения по вконтактовским пабликам, может статься так, что микс из закоса под медицину, но отсутствие человеков, "наживающихся на болезнях", даст его бредовым советом дополнительный вес. Конечно, чем больше идиотов, тем меньше идиотов, но биологическое разнообразие страдает и законодательство не ободряет.
Есть такое ощущение, что скоро традиционный гуглопоиск будет заменен на AI-консультанта. То есть задаем вопрос - получаем развернутый ответ со списком источников внизу.
PS: С удивлением обнаружил, что гугль дает максимум 10 страниц результатов поиска, искал редкую информацию, выдало, что найдено 3000 результатов, а выдало посмотреть только 108 :(
Ну вот сейчас всё упирарается в эти самые источники. И дело даже не в том, что сеть их не предоставляет. Проблема в том, что огромное количество сайтов на которых обучалась сеть существует за счет рекламы, которая показывается пользователям. Если пользователи будут находить ответ в ChatGPT не попадая на эти сайты, то эти сайты отомрут и ChatGPT не на чем будет обучатся, что ухудшит качество сетки. В общем, кажется, что если не будет какой-то модели поощрения сайтов, на которых обучалась нейросеть, то подобная поисковая нейросеть будет иметь отрицательную обратную связь в длительной перспективе.
Есть такое ощущение, что скоро традиционный гуглопоиск будет заменен на AI-консультанта
Недавно наткнулся на такое. Эта AI штука вроде как является каким-то гибридом ChatGPT и гугла, но я не в курсе, как оно в сравнении с ChatGPT:
Пропущено через переводчик, поэтому слегка коряво.
Экзамен экзамену рознь, конечно.
ChatGPT успешно сдаёт экзамены на получение медицинских лицензий