Вы хотели сказать Библиотеку Це? А то ведь и распространение кода можно расценить как оказание услуги, все таки физики пользуются. Поаккуратнее товарищ.
Очень комично выглядят это предположение о том что деанонимизация пользователя гарантирует его человечность или хотя бы возможность отличить обычного скрап бота от человека, но это предположение не верно в своей сути и основано на домыслах.
Вообще идея о том что частичная анонимность пользователя несёт проблемы, а деанонимизация их решает в корне неверно. Тот факт что кто-то принес паспорт не говорит нам примерно ничего, кроме того что у этого человека есть паспорт.
Это можно решить только строгим законодательными ограничениями доступа к интернету и реальной уголовной или административной ответственностью, но решив проблему ботов это создаст в 10 раз больше проблем для всего общества.
Проблема заключается в том что верификация личности не несёт гарантии человечности собеседника. Причем вероятность что человек имеющий 500 верификаций может быть ботом или человеком равно как и человек вообще без верификаций.
Идея то может и интересная, но реализована она будет сильно иначе.
А эти гигабайты сейчас с нами в одной комнате?) Если мы посмотрим на докер, потому что сейчас именно в докере используется 70% (число из воздуха) всех сервисов, то его используют не потому что: "Чё та легко работат!!!" А потому что - во первых переносимость, во вторых отсутствие оверхеда ресурсов, в третьих изолированность. И это прекрасно.
И если вы представляете ваш проект в проде - ваш проект будет в докере, это неизбежно, а если он не может быть в докере - его не будет в проде. Это конечно утрирование, и не все настолько строго, но докером тупо удобнее рулить в подавляющем большинстве случаев, поэтому отсутствие поддержки докера будет очень ярким красным флагом.
Микросервисы любят не только за то что каждый микросервис изолирован от других, а значит поломка или уязвимость одного микросервисы всегда локальна, хотя и может аффектить работу многих других сопутствующих микросервисы, а ещё и потому что если в проекте обнаружился bottleneck, в этом месте просто запускают парочку дополнительных нод и все продолжает летать. С монолитами в этом плане всегда менее приятно.
Ну и на последок, мой любимый Flask (или модное FastAPI. Контейнер 200 МБ уже с freezed состоянии, запускается где угодно, вся настройка через динамический env. В работе забирает 100 мб без нагрузки, 130-140 под малой нагрузкой около 100 RPM вроде было.
Вот кстати есть ощущение что GPT и Gemini выбираются чисто субъективно. У меня лично опыт с GPT почти всегда: "Много сказано, а задача до сих пор не выполнена", а с Gemini в свою очередь: "Мало сказано, но задача выполнена".
Но это все не 100% и разные задачи разные LLM выполняют с разной степенью успешности. GPT например давно не проверял, но по крайней мере был лучшей моделью в решении задач администрирования, а Gemini очень неплохо собирает стек, озвучивает лучшие практики, и проектирует приложение.
С кодом и повседневными вопросами (Клода и грока я почти не трогал) я беру Gemini просто из-за удобства для меня.
А ещё я частенько пишу сюжеты, истории и прочие рассказы. Gemini очень неплохо держит фокус и не позволяет своим советам развалится друг об друга. GPT конкретно в этой области значительно слабее.
Разработчик интересуется чем занимается бизнес конкурент своего работодателя 🥵
А ещё должен петь, танцевать, прыгать, бегать и делать двойное сальто.
Этот подход можно экстраполировать и на другие должности. Электрик должен интересоваться как проводят электрику на соседнем заводе, опрашивать людей на наличие обнаруженных ими проблем и идей, интересоваться что конкретно бизнес хотел бы улучшить в электрике и какие есть перспективы для роста или улучшения электрической сети.
Или вот - самый обычный повар обязательно должен интересоваться какое меню в соседнем ресторане конкуренте, он обязательно должен знать на чем конкретно ресторан в котором он работает - зарабатывает. А ещё повар должен сам рваться изменить меню или улучшить блюда которые по его мнению недостаточно хороши.
Разделение ответственности существует не потому что "так надо", а потому что никто не хочет работать одновременно на трёх работах и нести всю эту ответственность за 100 тысяч в какой.
Вообще базово LLM не могут быть идеальными консультантами, зато они могут автоматически итеративно пробовать разные конфигурации без существования человека в этой цепочке. openevolve как инструмент тому хорошее доказательство. Было бы интересно посмотреть каких результатов можно добиться с ним.
А вообще есть ощущение что так называемый AGI в целом недостижим из-за архитектуры самих LLM
Проблема в том что "ещё один", как расширение существующих стандартов может быть и имеет место быть, но как самостоятельный продукт это выглядит как "убийца json" который применяют во многом из-за широкой поддержки и простого синтаксиса.
Тоже позабавило кстати. Как определить украден код или нет? В случае с интеллектуальной собственностью вполне логично и понятно, а в случае с LLM?
Даже в случае с генераторами изображений предъявляют обычно за то что модель обучена на ворованных картинах, а не то что сгенерированные моделью картинки ворованные.
Ещё интересно касательно правового регулирования LLM, может ли каждый правообладатель рассчитывать на долю прибыли OpenAI если его работы используются для заработка денег компанией OpenAI?)
А ещё, можно ли считать написанный человеком код украденным если он до этого читал код?
Какой то бессвязный спич с достоверностью информации на уровне "Брат, отвечаю."
Процесс полностью разработан компанией Google, а произведен компанией TCMS. Не понимаю где в этой цепочке удешевление. Возможно в том что изменилась компания производитель, но не думаю что это настолько сильно влияет на цену производства.
У пикселей процессор слабее не потому что "он дешевле", а потому что Google одна из немногих компаний что может относительно игнорировать фоновый шум вокруг телефона и гнуть ту линию которую она считает правильной. В этом есть и плюсы, и минусы. Из очевидного что компании в общем смысле плевать на тех кто играет в игрульки, поэтому производительность у процессоров Google практически не растет.
Очевидным вектором развития являются нейронные вычисления, их скорость и энергоэффективность. Стоит хотя бы посмотреть на то что от G4 к G5 скорость нейронных вычислений (по их же заявлениям) выросла на 60%≈ что вообще то очень даже неплохо.
А по поводу того что 10 снимает хуже чем 9, это практически невозможно. Во многом потому что примерно с 6-7 модели они начали делать акцент на алгоритмы и дорисовку кадра (со своим супер супер ультра HDR+++++) чем кстати в свое время потеснили Apple на поприще фото. Pixel 10 имеет лучший процессор для AI который и редактирует фото чем Pixel 9, а следовательно фотографии будут или более качественные или такие же но быстрее.
Вообще, многие разработчики на питоне имеют какую-то антипатию к патернам, аппелируя к тому, что паттерны переусложнены и в них много лишнего - вот смотрите, как можно просто сделать, "тяп-ляп и в продакшн".
Просто в нашей любимой замке паттерны буквально переусложненны. Недавно неплохая статья была на хабре, что-то вроде "Почему паттерны проектирования в питоне не работают". Очень интересная статья которая очень точно описывает часть нюансов отношения змеи и паттернов.
Общий посыл статьи примерно такой - "Зачем шаблоны, если можно и лучше без шаблонов". То что указанное в статье является каким то шаблоном вообще удивление. В некоторых случаях в питоне можно callable метать и по спискам, и интегрироваться по ним. И использовать как замыкания.
Вы привели в пример вещи которые нарабатываются опытом. Никто не учит в школе сетевой гигиене или финансовой грамотности. Логично что человек который общается с техникой постольку поскольку не будет обладать навыками приобретаемыми с плотным погружением.
Я думаю доктора наук все таки могут посчитать колличество букв в слове и правильно сложить базовое уравнение с гуглом и калькулятором. Если я не ошибаюсь в мое чатгпт калькулятор таки стоит (или типа того) и все равно ошибается.
В оригинальном посте речь шла именно о ситуации когда нейросеть не понимает что пишет, но пишет. Она может написать текст уровня доктора наук, а может и не написать. Может совершить ошибку в примере 2+2, а может и не совершить. И это зависит не от знаний заложенных в нее. Банально в вашем примере это если доктор наук в половина ситуаций отправлял деньги мошенникам, а в половине нет.
Тот факт что работа написана нейросетью на говорит о том что человек не был причастен к этой работе. Я конечно не могу сказать наверняка что там за работы и какой уровень вклада человеческого, но когда я писал диплом во время GPT-3.5 фактически я писал запрос, читал ответ, брал то что мне нравится, повторял цикл. Без знания предмета вряд-ли можно понять где нейросеть голюционирует, где врёт, а где просто ошиблась.
Проблема у ИИ не в том что бы что-то написать. Написать и мартышка может. Проблема начинаются когда нужно учесть все нюансы и исходя из текущей архитектуры и принятых ранее решений написать то что будет работать максимально стабильно.
Инфраструктура меняется, подходы меняются, структура одной машины может отличаться от такой же машины просто в другой компании. Благо есть стандартизация, но когда бизнесу нужно чуть больше чем почтовик и дисишник, на подиум выходят проекты с мягко говоря нестандартным видением себя на устройствах конечных потребителей)
Многие крупные проекты пресобирают и под арм, не ради телефонов конечно, а ради ноутбуков на арме. За небольшие проекты не скажу (хотя без поддержки арма я проектов почти не видел) но почти все крупные точно можно будет запустить.
Мужик, ну какие балы? Какие 95%-99%?
Вы хотели сказать Библиотеку Це? А то ведь и распространение кода можно расценить как оказание услуги, все таки физики пользуются. Поаккуратнее товарищ.
Так это явно иишный текст, причем процентов на 60
Очень комично выглядят это предположение о том что деанонимизация пользователя гарантирует его человечность или хотя бы возможность отличить обычного скрап бота от человека, но это предположение не верно в своей сути и основано на домыслах.
Вообще идея о том что частичная анонимность пользователя несёт проблемы, а деанонимизация их решает в корне неверно. Тот факт что кто-то принес паспорт не говорит нам примерно ничего, кроме того что у этого человека есть паспорт.
Это можно решить только строгим законодательными ограничениями доступа к интернету и реальной уголовной или административной ответственностью, но решив проблему ботов это создаст в 10 раз больше проблем для всего общества.
Проблема заключается в том что верификация личности не несёт гарантии человечности собеседника. Причем вероятность что человек имеющий 500 верификаций может быть ботом или человеком равно как и человек вообще без верификаций.
Идея то может и интересная, но реализована она будет сильно иначе.
А эти гигабайты сейчас с нами в одной комнате?) Если мы посмотрим на докер, потому что сейчас именно в докере используется 70% (число из воздуха) всех сервисов, то его используют не потому что: "Чё та легко работат!!!" А потому что - во первых переносимость, во вторых отсутствие оверхеда ресурсов, в третьих изолированность. И это прекрасно.
И если вы представляете ваш проект в проде - ваш проект будет в докере, это неизбежно, а если он не может быть в докере - его не будет в проде. Это конечно утрирование, и не все настолько строго, но докером тупо удобнее рулить в подавляющем большинстве случаев, поэтому отсутствие поддержки докера будет очень ярким красным флагом.
Микросервисы любят не только за то что каждый микросервис изолирован от других, а значит поломка или уязвимость одного микросервисы всегда локальна, хотя и может аффектить работу многих других сопутствующих микросервисы, а ещё и потому что если в проекте обнаружился bottleneck, в этом месте просто запускают парочку дополнительных нод и все продолжает летать. С монолитами в этом плане всегда менее приятно.
Ну и на последок, мой любимый Flask (или модное FastAPI. Контейнер 200 МБ уже с freezed состоянии, запускается где угодно, вся настройка через динамический env. В работе забирает 100 мб без нагрузки, 130-140 под малой нагрузкой около 100 RPM вроде было.
Вот кстати есть ощущение что GPT и Gemini выбираются чисто субъективно. У меня лично опыт с GPT почти всегда: "Много сказано, а задача до сих пор не выполнена", а с Gemini в свою очередь: "Мало сказано, но задача выполнена".
Но это все не 100% и разные задачи разные LLM выполняют с разной степенью успешности. GPT например давно не проверял, но по крайней мере был лучшей моделью в решении задач администрирования, а Gemini очень неплохо собирает стек, озвучивает лучшие практики, и проектирует приложение.
С кодом и повседневными вопросами (Клода и грока я почти не трогал) я беру Gemini просто из-за удобства для меня.
А ещё я частенько пишу сюжеты, истории и прочие рассказы. Gemini очень неплохо держит фокус и не позволяет своим советам развалится друг об друга. GPT конкретно в этой области значительно слабее.
Разработчик интересуется чем занимается бизнес конкурент своего работодателя 🥵
А ещё должен петь, танцевать, прыгать, бегать и делать двойное сальто.
Этот подход можно экстраполировать и на другие должности. Электрик должен интересоваться как проводят электрику на соседнем заводе, опрашивать людей на наличие обнаруженных ими проблем и идей, интересоваться что конкретно бизнес хотел бы улучшить в электрике и какие есть перспективы для роста или улучшения электрической сети.
Или вот - самый обычный повар обязательно должен интересоваться какое меню в соседнем ресторане конкуренте, он обязательно должен знать на чем конкретно ресторан в котором он работает - зарабатывает. А ещё повар должен сам рваться изменить меню или улучшить блюда которые по его мнению недостаточно хороши.
Разделение ответственности существует не потому что "так надо", а потому что никто не хочет работать одновременно на трёх работах и нести всю эту ответственность за 100 тысяч в какой.
Вообще базово LLM не могут быть идеальными консультантами, зато они могут автоматически итеративно пробовать разные конфигурации без существования человека в этой цепочке. openevolve как инструмент тому хорошее доказательство. Было бы интересно посмотреть каких результатов можно добиться с ним.
А вообще есть ощущение что так называемый AGI в целом недостижим из-за архитектуры самих LLM
Проблема в том что "ещё один", как расширение существующих стандартов может быть и имеет место быть, но как самостоятельный продукт это выглядит как "убийца json" который применяют во многом из-за широкой поддержки и простого синтаксиса.
NAND например в плату впаивают частенько
Тоже позабавило кстати. Как определить украден код или нет? В случае с интеллектуальной собственностью вполне логично и понятно, а в случае с LLM?
Даже в случае с генераторами изображений предъявляют обычно за то что модель обучена на ворованных картинах, а не то что сгенерированные моделью картинки ворованные.
Ещё интересно касательно правового регулирования LLM, может ли каждый правообладатель рассчитывать на долю прибыли OpenAI если его работы используются для заработка денег компанией OpenAI?)
А ещё, можно ли считать написанный человеком код украденным если он до этого читал код?
Какой то бессвязный спич с достоверностью информации на уровне "Брат, отвечаю."
Процесс полностью разработан компанией Google, а произведен компанией TCMS. Не понимаю где в этой цепочке удешевление. Возможно в том что изменилась компания производитель, но не думаю что это настолько сильно влияет на цену производства.
У пикселей процессор слабее не потому что "он дешевле", а потому что Google одна из немногих компаний что может относительно игнорировать фоновый шум вокруг телефона и гнуть ту линию которую она считает правильной. В этом есть и плюсы, и минусы. Из очевидного что компании в общем смысле плевать на тех кто играет в игрульки, поэтому производительность у процессоров Google практически не растет.
Очевидным вектором развития являются нейронные вычисления, их скорость и энергоэффективность. Стоит хотя бы посмотреть на то что от G4 к G5 скорость нейронных вычислений (по их же заявлениям) выросла на 60%≈ что вообще то очень даже неплохо.
А по поводу того что 10 снимает хуже чем 9, это практически невозможно. Во многом потому что примерно с 6-7 модели они начали делать акцент на алгоритмы и дорисовку кадра (со своим супер супер ультра HDR+++++) чем кстати в свое время потеснили Apple на поприще фото. Pixel 10 имеет лучший процессор для AI который и редактирует фото чем Pixel 9, а следовательно фотографии будут или более качественные или такие же но быстрее.
Просто в нашей любимой замке паттерны буквально переусложненны. Недавно неплохая статья была на хабре, что-то вроде "Почему паттерны проектирования в питоне не работают". Очень интересная статья которая очень точно описывает часть нюансов отношения змеи и паттернов.
Общий посыл статьи примерно такой - "Зачем шаблоны, если можно и лучше без шаблонов". То что указанное в статье является каким то шаблоном вообще удивление. В некоторых случаях в питоне можно callable метать и по спискам, и интегрироваться по ним. И использовать как замыкания.
Нейросеть не может не ошибаться) Хочется калькулятор у которого точность хотя бы 90-95%
Не холивара ради, а ради уточнения.
Вы привели в пример вещи которые нарабатываются опытом. Никто не учит в школе сетевой гигиене или финансовой грамотности. Логично что человек который общается с техникой постольку поскольку не будет обладать навыками приобретаемыми с плотным погружением.
Я думаю доктора наук все таки могут посчитать колличество букв в слове и правильно сложить базовое уравнение с гуглом и калькулятором. Если я не ошибаюсь в мое чатгпт калькулятор таки стоит (или типа того) и все равно ошибается.
В оригинальном посте речь шла именно о ситуации когда нейросеть не понимает что пишет, но пишет. Она может написать текст уровня доктора наук, а может и не написать. Может совершить ошибку в примере 2+2, а может и не совершить. И это зависит не от знаний заложенных в нее. Банально в вашем примере это если доктор наук в половина ситуаций отправлял деньги мошенникам, а в половине нет.
Тот факт что работа написана нейросетью на говорит о том что человек не был причастен к этой работе. Я конечно не могу сказать наверняка что там за работы и какой уровень вклада человеческого, но когда я писал диплом во время GPT-3.5 фактически я писал запрос, читал ответ, брал то что мне нравится, повторял цикл. Без знания предмета вряд-ли можно понять где нейросеть голюционирует, где врёт, а где просто ошиблась.
Ты про региональные зарплатные коэффициенты слышал?
Проблема у ИИ не в том что бы что-то написать. Написать и мартышка может. Проблема начинаются когда нужно учесть все нюансы и исходя из текущей архитектуры и принятых ранее решений написать то что будет работать максимально стабильно.
Инфраструктура меняется, подходы меняются, структура одной машины может отличаться от такой же машины просто в другой компании. Благо есть стандартизация, но когда бизнесу нужно чуть больше чем почтовик и дисишник, на подиум выходят проекты с мягко говоря нестандартным видением себя на устройствах конечных потребителей)
Многие крупные проекты пресобирают и под арм, не ради телефонов конечно, а ради ноутбуков на арме. За небольшие проекты не скажу (хотя без поддержки арма я проектов почти не видел) но почти все крупные точно можно будет запустить.
Это ии...