Comments 32
Ой как неожиданно дал заднюю после того, как пришлось вернуть прошлые модели в чат, чтобы подписота массово не отвалилась
Сдаётся мне, господа, урезание осетра началось!
Сдаётся мне, господа, урезание осетра началось!
Там же еще и вопрос финансов, см. таблицу: https://platform.openai.com/docs/pricing?latest-pricing=standard
o1 стоит ого, но не на много лучше 5 версии.
Будут ли еще революционные сдвиги или же достигли условного предела - вот в чем вопрос.
>Будут ли еще революционные сдвиги или же достигли условного предела - вот в чем вопрос.
Ответ в самом вопросе: ллмки на пике хайпа и финансирования, если под такими ресурсами мы не видим революционных сдвигов, значит мы достигли локального предела.
ллмки на пике хайпа и финансирования, если под такими ресурсами мы не видим революционных сдвигов
Но мы точно знаем нейросети (пусть и других архитектур) - могут работать лучше - на примере человеческого мозга знаем. Т.е. 100% решения существуют, просто мы о них пока не знаем.
Возможно потребуется время чтобы найти эти решения.
Если вы думаете, что ваша нейросеть работает лучше, можете попробовать посостязаться с калькулятором
Если вы считаете, что ходите быстрее улитки, попробуйте обогнать гепарда.
Из невозможности обогнать гепарда надо сделать вывод, что вы ходите медленнее улитки, по вашей логике.
Вы не уловили логику, попробуйте снова
Или уловил, но вы не хотите признавать ошибку.
Ну объясните тогда, как вы её уловили и в чем ваш тейк.
Вы делаете вывод о том, кто лучше, человеческая нейросеть или ИИ, исходя из того, кто лучше, человеческая нейросеть или калькулятор. Но без дополнительных доказательств мы не можем объявить эквивалентность калькулятора и ИИ, это не очевидно. Более того, очевидно, что это не так.
То есть, я указываю, что вы взяли неудачную аналогию, в ней нет параллелей.
>Вы делаете вывод о том, кто лучше, человеческая нейросеть или ИИ, исходя из того, кто лучше, человеческая нейросеть или калькулятор
Я не делаю такой вывод, я привел пример, где конкретно человеческий интеллект хуже, чем искусственный. Мой тейк не в том, что лучше ИИ или человеческий мозг, а в том, что определение лучшего невозможно. Эту логику вы не смогли уловить.
>Более того, очевидно, что это не так.
Тогда жду от вас определение интеллекта, интеллектуальной деятельности, и доказательство того, что вычисления производимые калькулятором нельзя к таковой отнести.
>я привел пример, где конкретно человеческий интеллект хуже, чем искусственный
Нет, вы дали указания, что делать при некоторых условиях. Ни вывода, ни примера там формально нет. Все в пресуппозиции.
>Тогда жду от вас определение интеллекта, интеллектуальной деятельности, и доказательство того, что вычисления производимые калькулятором нельзя к таковой отнести.
Интересно, а я тоже могу попросить вас привести определения того, о чем вы даже не говорили, и сделать вид, что это аргумент в мою пользу?
Соломенное чучело.
>Нет, вы дали указания, что делать при некоторых условиях. Ни вывода, ни примера там формально нет. Все в пресуппозиции.
Если вам так хочется видеть это, пусть будет так, ведь даже если так, вы все равно приписали мне утверждение, которого я не делал.
>Интересно, а я тоже могу попросить вас привести определения того, о чем вы даже не говорили, и сделать вид, что это аргумент в мою пользу?
Как это не говорили, вот:
>Но без дополнительных доказательств мы не можем объявить эквивалентность калькулятора и ИИ, это не очевидно. Более того, очевидно, что это не так.
Вы конкретно пишете, можно ли объявить калькулятор ИИ и далее, что вам очевидно, что это не так. Объясните, почему вдруг стало очевидно, что калькулятор нельзя назвать разновидностью искусственного интеллекта, а начните с того, что вы определяете как интеллект.
>вы все равно приписали мне утверждение, которого я не делал.
Для того, чтобы этот аргумент стал валидным, нужно ещё указать на это утверждение.
>Как это не говорили, вот:
А теперь внимательно сравниваем, о чем написал я и о чем ваш вопрос. Об интеллекте и об интеллектуальной деятельности я не говорил, ваш просто мне это приписали. Соломеное чучело.
>доказательство того, что вычисления производимые калькулятором нельзя к таковой отнести.
А это я проглядел сначала, у вас же тут чайник Рассела, и вы хотите, чтобы я ваш чайник опроверг.
>Более того, очевидно, что это не так.
Здесь я неточно выразился, уточню, чтобы устранить непонимание. Под «очевидно» я подразумевал кажущуюся, интуитивную очевидность, из которой не обязательно следует истинность.
> начните с того, что вы определяете как интеллект.
Опять же, об этом говорили вы, я не говорил об интеллекте, только об ИИ. Использование этого термина не обязывает нас погружаться в размышления о собственно интеллекте.
Или вы подразумеваете, что ИИ обязан обладать интеллектом?
>А это я проглядел сначала, у вас же тут чайник Рассела, и вы хотите, чтобы я ваш чайник опроверг.
Причем здесь чайник Рассела? У вас есть конкретный осязаемый калькулятор в телефоне и есть ваше понимание того, что считать интеллектом. Озвучьте это определение и на его основе докажите, что калькулятор нельзя считать таким.
>Опять же, об этом говорили вы, я не говорил об интеллекте, только об ИИ. Использование этого термина не обязывает нас погружаться в размышления о собственно интеллекте.
ИИ это искусственный интеллект, как вы планируете рассуждать на тему искусственного интеллекта, не определив само понятие интеллекта?
>Или вы подразумеваете, что ИИ обязан обладать интеллектом?
ИИ не обязан обладать интеллектом, ИИ это и есть интеллект, он так и расшифровывается - искусственный интеллект.
Чайник Рассела при том, что вы хотите от меня опровержения того, что вы приняли без доказательств. Вот, вы хотите от меня
>доказательство того, что вычисления производимые калькулятором нельзя к таковой отнести
, в то время, как обратное вы приняли без доказательств.
Разу вас вызывает вопросы термин ИИ, давайте от него откажемся, как я уже сказал, я совсем не об интеллекте говорю. Вернётся к изначальному варианту, нейросети. С уточнением, что подразумевается существующие или ожидаемые в обозримом будущем.
Вопрос не в том, кто быстрее, а кто смог или не смог решить задачу. Вы превзойдете калькулятор в сложении больших чисел, он не превзойдет вас ни в чём.
Хорошо, ChatGPT, вот тебе, 2000 килокалорий энергии в день — и ни в чём себе не отказывай.
Альтману приходится постоянно учитывать эмоции инвесторов чтобы не потерять инвестиции. Сначала AGI был нужен чтобы подогревать интерес, а сейчас надо охладить ожидания иначе можно получить разочарование на рынке.
Я до сих пор на gpt-3.5 сижу. Работает норм для меня, дешевое api и работает просто моментально. Скорость просто световая.
Какие задачи делаешь?
Оттачиваю грамматику
Помогает писать на JS, Typescript - для меня это новые языки.
Помогает писать письма на бизнес языке, всякие залобы составлять и прочую бюрократию
Иногда помогает писать мелкие функции на питон, раст и джава.
Помогает понять смысл некоторых фраз или этимологию слова.
И так далее.
А почему для этого надо API а не просто через UI
Как раз интерисовало зачем люди юзают именно api
Поверх API спокойно можно навертеть какой хочешь интерфейс с удобными под свои задачи плюшками.
Свой интерфейс доступен из всех регионов, а не только из разрешенных.
Для меня выходит дешевле чем их абонемент к их чат серверу. Раз в 5 дешевле.
История чатов доступа всегда и никуда не пропадёт.
Легко использовать ИИ для скриптинга и автоматизации мелочевки.
Больший контроль над параметрами нейронки.
Можно самому делать RAG какой пожелаешь.
Альтман привел определение AGI как ИИ, который может "выполнять значительный объем работы в мире". Но проблема здесь в том, что работа, которую делают люди, постоянно меняется.
а разве не в этом смысл AGI - подстраиваться под изменяющиеся условия роботы?
Начать бы с того, что AGI - это...
Когда в эфире CNBC его спросили, приближает ли GPT-5 человечество к AGI, Альтман неожиданно заявил "Сам решу-ууу".
Для AGI то текущие методы обучения и структуры llm вряд-ли подходят. Ты хоть х100 от всех земных знаний в него запихни, сверхинтеллектом этот огромный набор матриц не станет.
Здесь остаётся только надежда на команды Цукерберга и Суцкевера, что они разработают какой то совершенно иной подход. Но и то сомнительно.
После релиза GPT-5 Сэм Альтман назвал AGI «не очень полезным термином»