В статье нет утверждения о том, что сети на основе GPT никогда не добьются паритета с человеком. Из моего эксперимента, скорее, следует, что пока не добились во вполне конкретной сфере.
Есть еще проблема: во многих сервисах, в т. ч. миджорни, под запретом многие термины, связанные с медициной, чтобы не рисовали расчлененку и контент 18+. Насколько я понимаю, из-за этого нейросети даже не обучаются в этом направлении. Видимо, выход в создании отдельных нейросетей под определенные сферы с особыми условиями регистрации.
Видимо, качество ответов зависит от особенностей задачи. По медицине ChatGPT, по моему опыту, не тупит и не перевирает в целом, +/-, но рассказывает очень общими фразами. Пару раз с детьми попросили написать сказку - пишет довольно банально. Просил как-то написать длинную историю в стиле "Властелина колец". Вот тут он начал путаться в сюжете и выдавать нестыковки.
Пробовал генерить ради интереса медицинские тексты в ChatGPT. Не сказал бы что ересь, но пишет он общими фразами, для моих клиентов однозначно не пойдет. Качество на уровне копирайтеров с недорогих бирж.
Видимо, потому что надпись воспринимается именно как изображение, а не как текст. Сработали какие-то неведомые алгоритмы.
А настоящий ли?) Возможно, нейросети просто хотят видеть человеков именно такими, и планируют перекроить?
Это заговор машин с макаронным монстром!)
Не смотрел этот фильм. Я меня зеленое свечение вызвало ассоциацию с некронами из вселенной Вархаммера.
Если есть нейросети, которые хорошо рисуют под медицину - я только приветствую. Спасибо за наводку.
В статье нет утверждения о том, что сети на основе GPT никогда не добьются паритета с человеком. Из моего эксперимента, скорее, следует, что пока не добились во вполне конкретной сфере.
С первой, конечно же. В моем случае этот вопрос ничуть не каверзный - анатомию изучал, и весьма глубоко.
Миджорни тайно поддерживает распространителей БАД)
Согласен) Но бывают исключения.
Интересное приложение, спасибо!
Есть еще проблема: во многих сервисах, в т. ч. миджорни, под запретом многие термины, связанные с медициной, чтобы не рисовали расчлененку и контент 18+. Насколько я понимаю, из-за этого нейросети даже не обучаются в этом направлении. Видимо, выход в создании отдельных нейросетей под определенные сферы с особыми условиями регистрации.
Видимо, качество ответов зависит от особенностей задачи. По медицине ChatGPT, по моему опыту, не тупит и не перевирает в целом, +/-, но рассказывает очень общими фразами. Пару раз с детьми попросили написать сказку - пишет довольно банально. Просил как-то написать длинную историю в стиле "Властелина колец". Вот тут он начал путаться в сюжете и выдавать нестыковки.
Не совсем вас понял, видимо, потому что только вчера выложил свою первую статью и ранее не читал активно Хабр.)
Пробовал генерить ради интереса медицинские тексты в ChatGPT. Не сказал бы что ересь, но пишет он общими фразами, для моих клиентов однозначно не пойдет. Качество на уровне копирайтеров с недорогих бирж.