Вот кстати есть ощущение что GPT и Gemini выбираются чисто субъективно. У меня лично опыт с GPT почти всегда: "Много сказано, а задача до сих пор не выполнена", а с Gemini в свою очередь: "Мало сказано, но задача выполнена".
Но это все не 100% и разные задачи разные LLM выполняют с разной степенью успешности. GPT например давно не проверял, но по крайней мере был лучшей моделью в решении задач администрирования, а Gemini очень неплохо собирает стек, озвучивает лучшие практики, и проектирует приложение.
С кодом и повседневными вопросами (Клода и грока я почти не трогал) я беру Gemini просто из-за удобства для меня.
А ещё я частенько пишу сюжеты, истории и прочие рассказы. Gemini очень неплохо держит фокус и не позволяет своим советам развалится друг об друга. GPT конкретно в этой области значительно слабее.
Разработчик интересуется чем занимается бизнес конкурент своего работодателя 🥵
А ещё должен петь, танцевать, прыгать, бегать и делать двойное сальто.
Этот подход можно экстраполировать и на другие должности. Электрик должен интересоваться как проводят электрику на соседнем заводе, опрашивать людей на наличие обнаруженных ими проблем и идей, интересоваться что конкретно бизнес хотел бы улучшить в электрике и какие есть перспективы для роста или улучшения электрической сети.
Или вот - самый обычный повар обязательно должен интересоваться какое меню в соседнем ресторане конкуренте, он обязательно должен знать на чем конкретно ресторан в котором он работает - зарабатывает. А ещё повар должен сам рваться изменить меню или улучшить блюда которые по его мнению недостаточно хороши.
Разделение ответственности существует не потому что "так надо", а потому что никто не хочет работать одновременно на трёх работах и нести всю эту ответственность за 100 тысяч в какой.
Вообще базово LLM не могут быть идеальными консультантами, зато они могут автоматически итеративно пробовать разные конфигурации без существования человека в этой цепочке. openevolve как инструмент тому хорошее доказательство. Было бы интересно посмотреть каких результатов можно добиться с ним.
А вообще есть ощущение что так называемый AGI в целом недостижим из-за архитектуры самих LLM
Проблема в том что "ещё один", как расширение существующих стандартов может быть и имеет место быть, но как самостоятельный продукт это выглядит как "убийца json" который применяют во многом из-за широкой поддержки и простого синтаксиса.
Тоже позабавило кстати. Как определить украден код или нет? В случае с интеллектуальной собственностью вполне логично и понятно, а в случае с LLM?
Даже в случае с генераторами изображений предъявляют обычно за то что модель обучена на ворованных картинах, а не то что сгенерированные моделью картинки ворованные.
Ещё интересно касательно правового регулирования LLM, может ли каждый правообладатель рассчитывать на долю прибыли OpenAI если его работы используются для заработка денег компанией OpenAI?)
А ещё, можно ли считать написанный человеком код украденным если он до этого читал код?
Какой то бессвязный спич с достоверностью информации на уровне "Брат, отвечаю."
Процесс полностью разработан компанией Google, а произведен компанией TCMS. Не понимаю где в этой цепочке удешевление. Возможно в том что изменилась компания производитель, но не думаю что это настолько сильно влияет на цену производства.
У пикселей процессор слабее не потому что "он дешевле", а потому что Google одна из немногих компаний что может относительно игнорировать фоновый шум вокруг телефона и гнуть ту линию которую она считает правильной. В этом есть и плюсы, и минусы. Из очевидного что компании в общем смысле плевать на тех кто играет в игрульки, поэтому производительность у процессоров Google практически не растет.
Очевидным вектором развития являются нейронные вычисления, их скорость и энергоэффективность. Стоит хотя бы посмотреть на то что от G4 к G5 скорость нейронных вычислений (по их же заявлениям) выросла на 60%≈ что вообще то очень даже неплохо.
А по поводу того что 10 снимает хуже чем 9, это практически невозможно. Во многом потому что примерно с 6-7 модели они начали делать акцент на алгоритмы и дорисовку кадра (со своим супер супер ультра HDR+++++) чем кстати в свое время потеснили Apple на поприще фото. Pixel 10 имеет лучший процессор для AI который и редактирует фото чем Pixel 9, а следовательно фотографии будут или более качественные или такие же но быстрее.
Вообще, многие разработчики на питоне имеют какую-то антипатию к патернам, аппелируя к тому, что паттерны переусложнены и в них много лишнего - вот смотрите, как можно просто сделать, "тяп-ляп и в продакшн".
Просто в нашей любимой замке паттерны буквально переусложненны. Недавно неплохая статья была на хабре, что-то вроде "Почему паттерны проектирования в питоне не работают". Очень интересная статья которая очень точно описывает часть нюансов отношения змеи и паттернов.
Общий посыл статьи примерно такой - "Зачем шаблоны, если можно и лучше без шаблонов". То что указанное в статье является каким то шаблоном вообще удивление. В некоторых случаях в питоне можно callable метать и по спискам, и интегрироваться по ним. И использовать как замыкания.
Вы привели в пример вещи которые нарабатываются опытом. Никто не учит в школе сетевой гигиене или финансовой грамотности. Логично что человек который общается с техникой постольку поскольку не будет обладать навыками приобретаемыми с плотным погружением.
Я думаю доктора наук все таки могут посчитать колличество букв в слове и правильно сложить базовое уравнение с гуглом и калькулятором. Если я не ошибаюсь в мое чатгпт калькулятор таки стоит (или типа того) и все равно ошибается.
В оригинальном посте речь шла именно о ситуации когда нейросеть не понимает что пишет, но пишет. Она может написать текст уровня доктора наук, а может и не написать. Может совершить ошибку в примере 2+2, а может и не совершить. И это зависит не от знаний заложенных в нее. Банально в вашем примере это если доктор наук в половина ситуаций отправлял деньги мошенникам, а в половине нет.
Тот факт что работа написана нейросетью на говорит о том что человек не был причастен к этой работе. Я конечно не могу сказать наверняка что там за работы и какой уровень вклада человеческого, но когда я писал диплом во время GPT-3.5 фактически я писал запрос, читал ответ, брал то что мне нравится, повторял цикл. Без знания предмета вряд-ли можно понять где нейросеть голюционирует, где врёт, а где просто ошиблась.
Проблема у ИИ не в том что бы что-то написать. Написать и мартышка может. Проблема начинаются когда нужно учесть все нюансы и исходя из текущей архитектуры и принятых ранее решений написать то что будет работать максимально стабильно.
Инфраструктура меняется, подходы меняются, структура одной машины может отличаться от такой же машины просто в другой компании. Благо есть стандартизация, но когда бизнесу нужно чуть больше чем почтовик и дисишник, на подиум выходят проекты с мягко говоря нестандартным видением себя на устройствах конечных потребителей)
Многие крупные проекты пресобирают и под арм, не ради телефонов конечно, а ради ноутбуков на арме. За небольшие проекты не скажу (хотя без поддержки арма я проектов почти не видел) но почти все крупные точно можно будет запустить.
На самом деле статья чистейшая профанация, и происходит это из непонимания целей и причин. Да технически основная идея верна - мы пытаемся просто сделать пароль достаточно сложным что бы его невозможно или очень трудно было "Взломать"
А как взломать? Очивидно перебором. От технических способов взлома пароля его сложность не поможет, от психологических способов тоже.
Как происходит перебор? Злоумышленник перебирает слова, символы или фразы пока не поймет что подобранный пароль - верный. Как он их перебирает? Мы не знаем. Может от А до Я, может от Я до А, может откуда то с центру в разные стороны. Значит разницы насколько наш пароль "перемешан" роли не играет.
Что может помешать злоумышленнику подобрать пароль? В чём основная сложность? Основная сложность подбора пароля - его длинна. Так относительно простой пароль длинной 64 символа технически невозможно подобрать никому.
Суммируя, нам нельзя использовать только простые слова и фразы, а так же нам стоит избегать большого количества одинаковых символов в народе. 10%+
Основная проблема паролей для пользователя какая? То что они забываются и используются зачастую одинаковые пароли.
Суммируя все выше сказанное идеальным вариантом пароля будет длинная, необычная для нас фраза, не содержащая большого количества количества одинаковых букв подряд и с некоторым колличеством шума.
Пример: Hel10_M&M#WhatAre//Y0u\\want
Колличество символов - 28, запомнить легко, с пользователем связи не имеет никакой, подобрать почти нереально.
Я молчу про то что в жизни спокойно можно использовать половину от этого пароля, и ещё упростить себе жизнь.
Интересный подход, почему бы тегами не помечать отдельные логические участки роли, при условии что сама роль линейная и монолитная? Допустим базовое развертывание приложения? Оно отлично будет работать и без тегов, и с тегами в любом порядке с любой комбинацией.
Так то очень даже, тут я правда не совсем понимаю зачем так заморачиваться, есть же userinfo_bot, который сам с удовольствием вернёт прямо в чате user id, да и отправлять при помощи Python-telegram-bot какого нибудь сильно проще чем вот так вот обертки каждый раз писать над сырым api, но мне вот в проекте нужен как раз тупой сендер, поскольку он работает в сайд процессе загружать туда настоящий клиент несподручно.
Нейросеть обязана уметь в разные подходы, включая с мнениями и без, в этом и есть смысл нейросети. Гибкость и человечность, к этому все и стремятся.
А по поводу идеи о том что этот бэнчмарк как то оценивает исторические знания мне кажется наивными. С таким подходом можно просто оценивать нейронки по ЕГЭ, больше пользы было бы.
Вот кстати есть ощущение что GPT и Gemini выбираются чисто субъективно. У меня лично опыт с GPT почти всегда: "Много сказано, а задача до сих пор не выполнена", а с Gemini в свою очередь: "Мало сказано, но задача выполнена".
Но это все не 100% и разные задачи разные LLM выполняют с разной степенью успешности. GPT например давно не проверял, но по крайней мере был лучшей моделью в решении задач администрирования, а Gemini очень неплохо собирает стек, озвучивает лучшие практики, и проектирует приложение.
С кодом и повседневными вопросами (Клода и грока я почти не трогал) я беру Gemini просто из-за удобства для меня.
А ещё я частенько пишу сюжеты, истории и прочие рассказы. Gemini очень неплохо держит фокус и не позволяет своим советам развалится друг об друга. GPT конкретно в этой области значительно слабее.
Разработчик интересуется чем занимается бизнес конкурент своего работодателя 🥵
А ещё должен петь, танцевать, прыгать, бегать и делать двойное сальто.
Этот подход можно экстраполировать и на другие должности. Электрик должен интересоваться как проводят электрику на соседнем заводе, опрашивать людей на наличие обнаруженных ими проблем и идей, интересоваться что конкретно бизнес хотел бы улучшить в электрике и какие есть перспективы для роста или улучшения электрической сети.
Или вот - самый обычный повар обязательно должен интересоваться какое меню в соседнем ресторане конкуренте, он обязательно должен знать на чем конкретно ресторан в котором он работает - зарабатывает. А ещё повар должен сам рваться изменить меню или улучшить блюда которые по его мнению недостаточно хороши.
Разделение ответственности существует не потому что "так надо", а потому что никто не хочет работать одновременно на трёх работах и нести всю эту ответственность за 100 тысяч в какой.
Вообще базово LLM не могут быть идеальными консультантами, зато они могут автоматически итеративно пробовать разные конфигурации без существования человека в этой цепочке. openevolve как инструмент тому хорошее доказательство. Было бы интересно посмотреть каких результатов можно добиться с ним.
А вообще есть ощущение что так называемый AGI в целом недостижим из-за архитектуры самих LLM
Проблема в том что "ещё один", как расширение существующих стандартов может быть и имеет место быть, но как самостоятельный продукт это выглядит как "убийца json" который применяют во многом из-за широкой поддержки и простого синтаксиса.
NAND например в плату впаивают частенько
Тоже позабавило кстати. Как определить украден код или нет? В случае с интеллектуальной собственностью вполне логично и понятно, а в случае с LLM?
Даже в случае с генераторами изображений предъявляют обычно за то что модель обучена на ворованных картинах, а не то что сгенерированные моделью картинки ворованные.
Ещё интересно касательно правового регулирования LLM, может ли каждый правообладатель рассчитывать на долю прибыли OpenAI если его работы используются для заработка денег компанией OpenAI?)
А ещё, можно ли считать написанный человеком код украденным если он до этого читал код?
Какой то бессвязный спич с достоверностью информации на уровне "Брат, отвечаю."
Процесс полностью разработан компанией Google, а произведен компанией TCMS. Не понимаю где в этой цепочке удешевление. Возможно в том что изменилась компания производитель, но не думаю что это настолько сильно влияет на цену производства.
У пикселей процессор слабее не потому что "он дешевле", а потому что Google одна из немногих компаний что может относительно игнорировать фоновый шум вокруг телефона и гнуть ту линию которую она считает правильной. В этом есть и плюсы, и минусы. Из очевидного что компании в общем смысле плевать на тех кто играет в игрульки, поэтому производительность у процессоров Google практически не растет.
Очевидным вектором развития являются нейронные вычисления, их скорость и энергоэффективность. Стоит хотя бы посмотреть на то что от G4 к G5 скорость нейронных вычислений (по их же заявлениям) выросла на 60%≈ что вообще то очень даже неплохо.
А по поводу того что 10 снимает хуже чем 9, это практически невозможно. Во многом потому что примерно с 6-7 модели они начали делать акцент на алгоритмы и дорисовку кадра (со своим супер супер ультра HDR+++++) чем кстати в свое время потеснили Apple на поприще фото. Pixel 10 имеет лучший процессор для AI который и редактирует фото чем Pixel 9, а следовательно фотографии будут или более качественные или такие же но быстрее.
Просто в нашей любимой замке паттерны буквально переусложненны. Недавно неплохая статья была на хабре, что-то вроде "Почему паттерны проектирования в питоне не работают". Очень интересная статья которая очень точно описывает часть нюансов отношения змеи и паттернов.
Общий посыл статьи примерно такой - "Зачем шаблоны, если можно и лучше без шаблонов". То что указанное в статье является каким то шаблоном вообще удивление. В некоторых случаях в питоне можно callable метать и по спискам, и интегрироваться по ним. И использовать как замыкания.
Ага, а если перформансом обозвать убийство, то и сидеть не нужно?
Нейросеть не может не ошибаться) Хочется калькулятор у которого точность хотя бы 90-95%
Не холивара ради, а ради уточнения.
Вы привели в пример вещи которые нарабатываются опытом. Никто не учит в школе сетевой гигиене или финансовой грамотности. Логично что человек который общается с техникой постольку поскольку не будет обладать навыками приобретаемыми с плотным погружением.
Я думаю доктора наук все таки могут посчитать колличество букв в слове и правильно сложить базовое уравнение с гуглом и калькулятором. Если я не ошибаюсь в мое чатгпт калькулятор таки стоит (или типа того) и все равно ошибается.
В оригинальном посте речь шла именно о ситуации когда нейросеть не понимает что пишет, но пишет. Она может написать текст уровня доктора наук, а может и не написать. Может совершить ошибку в примере 2+2, а может и не совершить. И это зависит не от знаний заложенных в нее. Банально в вашем примере это если доктор наук в половина ситуаций отправлял деньги мошенникам, а в половине нет.
Тот факт что работа написана нейросетью на говорит о том что человек не был причастен к этой работе. Я конечно не могу сказать наверняка что там за работы и какой уровень вклада человеческого, но когда я писал диплом во время GPT-3.5 фактически я писал запрос, читал ответ, брал то что мне нравится, повторял цикл. Без знания предмета вряд-ли можно понять где нейросеть голюционирует, где врёт, а где просто ошиблась.
Ты про региональные зарплатные коэффициенты слышал?
Проблема у ИИ не в том что бы что-то написать. Написать и мартышка может. Проблема начинаются когда нужно учесть все нюансы и исходя из текущей архитектуры и принятых ранее решений написать то что будет работать максимально стабильно.
Инфраструктура меняется, подходы меняются, структура одной машины может отличаться от такой же машины просто в другой компании. Благо есть стандартизация, но когда бизнесу нужно чуть больше чем почтовик и дисишник, на подиум выходят проекты с мягко говоря нестандартным видением себя на устройствах конечных потребителей)
Многие крупные проекты пресобирают и под арм, не ради телефонов конечно, а ради ноутбуков на арме. За небольшие проекты не скажу (хотя без поддержки арма я проектов почти не видел) но почти все крупные точно можно будет запустить.
Это ии...
Не везде работает к несчастью(
На самом деле статья чистейшая профанация, и происходит это из непонимания целей и причин. Да технически основная идея верна - мы пытаемся просто сделать пароль достаточно сложным что бы его невозможно или очень трудно было "Взломать"
А как взломать? Очивидно перебором. От технических способов взлома пароля его сложность не поможет, от психологических способов тоже.
Как происходит перебор? Злоумышленник перебирает слова, символы или фразы пока не поймет что подобранный пароль - верный. Как он их перебирает? Мы не знаем. Может от А до Я, может от Я до А, может откуда то с центру в разные стороны. Значит разницы насколько наш пароль "перемешан" роли не играет.
Что может помешать злоумышленнику подобрать пароль? В чём основная сложность? Основная сложность подбора пароля - его длинна. Так относительно простой пароль длинной 64 символа технически невозможно подобрать никому.
Суммируя, нам нельзя использовать только простые слова и фразы, а так же нам стоит избегать большого количества одинаковых символов в народе. 10%+
Основная проблема паролей для пользователя какая? То что они забываются и используются зачастую одинаковые пароли.
Суммируя все выше сказанное идеальным вариантом пароля будет длинная, необычная для нас фраза, не содержащая большого количества количества одинаковых букв подряд и с некоторым колличеством шума.
Пример: Hel10_M&M#WhatAre//Y0u\\want
Колличество символов - 28, запомнить легко, с пользователем связи не имеет никакой, подобрать почти нереально.
Я молчу про то что в жизни спокойно можно использовать половину от этого пароля, и ещё упростить себе жизнь.
Интересный подход, почему бы тегами не помечать отдельные логические участки роли, при условии что сама роль линейная и монолитная? Допустим базовое развертывание приложения? Оно отлично будет работать и без тегов, и с тегами в любом порядке с любой комбинацией.
Так то очень даже, тут я правда не совсем понимаю зачем так заморачиваться, есть же userinfo_bot, который сам с удовольствием вернёт прямо в чате user id, да и отправлять при помощи Python-telegram-bot какого нибудь сильно проще чем вот так вот обертки каждый раз писать над сырым api, но мне вот в проекте нужен как раз тупой сендер, поскольку он работает в сайд процессе загружать туда настоящий клиент несподручно.
Интересное и абсолютно "обоснованное" мнение.
Нейронная сеть без мнения - Яндекс.
Нейросеть обязана уметь в разные подходы, включая с мнениями и без, в этом и есть смысл нейросети. Гибкость и человечность, к этому все и стремятся.
А по поводу идеи о том что этот бэнчмарк как то оценивает исторические знания мне кажется наивными. С таким подходом можно просто оценивать нейронки по ЕГЭ, больше пользы было бы.