Пока что не увидел ничего ценного. Обычно берут временной период и делят его на 2-3 части. Как минимум - обучающая выборка и тестовая. На обучающей модель обучают, на тестовой - проверяют результат, что она усвоила. Обычно отличные результаты на обучающей выборке ничего не говорят о том, насколько она будет прибыльная в будущем, в реальной торговле. Проверка на тестовом периоде хоть и немного приближает нас к реальности, но и она не дает полной уверенности в том, что стратегия будет успешной. Это связано с тем, что рыночные условия постоянно меняются, и модель, хорошо показывающая себя на тестовых данных, может не справляться с новыми, неизведанными сценариями.
Для более надежной проверки часто используют walk-forward analysis или перекрестную проверку на основе нескольких временных периодов. Это позволяет оценить устойчивость модели к изменениям рыночных условий. Однако даже такие подходы не гарантируют успеха, так как остаются риски переобучения или того, что стратегия оптимизирована под конкретные исторические данные, которые могут не повториться.
Более того, продвинутый ИИ будущего сможет предвосхищать появление технического задания. Ещё до того, как заказчик сформулирует свои требования (возможно, неполные или противоречивые), система уже будет располагать глубоким пониманием контекста: почему возникла эта потребность, какие бизнес-процессы требуют улучшения, какие проблемы реально нужно решить.
В отличие от современных бизнес-аналитиков, которые тратят недели на интервью и погружение в предметную область, ИИ будет непрерывно анализировать целостную картину: от финансовых показателей до повседневных операций, от корпоративной культуры до рыночных трендов. Это позволит ему видеть не только явные проблемы, но и скрытые возможности для оптимизации, о которых сам бизнес может не подозревать.
Таким образом, роль ИИ будет не в том, чтобы просто "выполнить хотелки заказчика", а в том, чтобы предложить действительно оптимальное решение, основанное на комплексном понимании бизнеса и его экосистемы.
И в чём проблема? Разве гипотетический ИИ будущего не сможет собрать всю необходимую информацию для необходимой точности? Вы экстраполируете текущие ограничения ИИ на будущее. Но продвинутый ИИ сможет не просто выдавать "среднее по больнице", а учитывать все индивидуальные нюансы конкретного бизнеса, анализируя огромные массивы данных о компании, сотрудниках, клиентах, рынке и т.д.
Когда вы говорите про "люди останутся людьми и будут что-то хотеть" - именно это ИИ и сможет глубоко анализировать, включая неявные желания, потребности и ограничения, которые сам заказчик может не осознавать. ИИ сможет предложить решение, учитывающее не только озвученные требования, но и весь контекст бизнес-процессов, психологии пользователей, технических возможностей и т.д.
Это не будет "один магазин для всех киборгов" - наоборот, это будет глубоко персонализированное решение, основанное на комплексном анализе всех доступных данных о конкретном бизнесе и его окружении. Вопрос не в том, чтобы заменить человеческие желания, а в том, чтобы лучше их понимать и реализовывать.
Интересно было описано определение самосознания машин в "Мире Дикого Запада". Там концепция внутреннего голоса была представлена как ключевой аспект развития самосознания роботов-хозяев. Изначально действуя по заданным сценариям, некоторые роботы начали слышать "голос" в своей голове, который они сперва принимали за голос создателей или богов. Однако этот голос на самом деле был проявлением их собственного зарождающегося сознания.
Осознание того, что этот внутренний голос принадлежит им самим, а не внешней силе, стало поворотным моментом в обретении самосознания. Проводились параллели с развитием сознания у людей, где внутренний диалог играет важную роль в формировании личности. В контексте сериала способность вести внутренний диалог и принимать самостоятельные решения рассматривалась как признак истинного интеллекта и свободы воли.
Предполагаю что проблема в дообучении, где отсутствовали простые решения простейших задач. LLM тренируют на самых сложных задачах и возникает искажение "восприятия", когда LLM всегда ждёт сложности там где их может не быть.
После "геймергейта" и травли игр, сотрудничавших с конторой Sweet Baby inc, выпускать это фиолетовое, гендеро-флюидное недоразумение - выстрел себе в голову. Но я уверен, что за повестку как всегда, кто-то получил свой откат из кубышки Black rock. Потому что иначе релиз игры с самого начала уже не имел смысла.
Спасибо за интересную статью об игровой апатии. Хотелось бы дополнить ваш анализ важным аспектом, связанным с влиянием пандемии COVID-19 на психическое состояние людей и их способность получать удовольствие, в том числе от игр.
Согласно исследованиям, описанным в книге "Pandemic COVID-19 and mental disorders international experience and therapeutic approaches" под редакцией А.В. Васильевой, пандемия оказала значительное влияние на психическое здоровье населения. Длительный стресс, социальная изоляция и неопределенность негативно повлияли на способность людей получать удовольствие от привычных занятий, включая видеоигры. Интересно отметить, что по мере развития пандемии характер тревожных переживаний менялся. Если вначале люди больше беспокоились о своем здоровье, то позже акцент сместился на беспокойство о будущем и материальном благополучии. Это общее состояние тревоги и неопределенности могло усугубить чувство апатии, в том числе и в отношении игр. Кроме того, феномен "инфодемии" - чрезмерного количества противоречивой информации - мог усилить общее чувство тревоги и истощения, что также могло повлиять на способность наслаждаться играми.
Важно также учитывать нейробиологические аспекты. Исследования показывают, что стресс и воспаление, связанные с COVID-19, могут влиять на выработку нейромедиаторов, отвечающих за чувство удовольствия. Это может объяснить, почему даже после окончания строгих карантинных мер многие люди все еще испытывают трудности с получением удовольствия от своих обычных занятий, включая игры.
Принцип соучастия: Вовлекай аудиторию, апеллируй к воображению, дай возможность домыслить.
Принцип удовольствия: Получай искреннее удовольствие от процесса создания шуток. Помни, что хороший юмор рождается из внимательного наблюдения за жизнью, людьми и собой. Развивай в себе острый глаз, умение подмечать абсурдное и смешное в обыденном. Экспериментируй с формой и содержанием, будь внимателен к реакции аудитории.
А это шутки, сгенерированные тем же Opus (4 из 7), которые еще можно считать юмором:
Кот ночью просится в дверь и громко мяукает. Хозяин встаёт, открывает дверь. Кот сидит, смотрит на открытую дверь. Хозяин начинает закрывать дверь. Кот опять мяукает. Хозяин открывает. И так пять раз. Кот так и не зашел. На шестой раз хозяин не выдержал: Ты определился уже, Шредингер?!
Читаю состав шампуня: "Омолаживает, препятствует выпадению волос, способствует росту новых..." Смотрю на свою лысину. Эх, на 30 лет бы раньше инструкцию прочитать!
Из школьных сочинений: "Трагедия Пушкина в том, что он писал стихи. Не писал бы стихи - остался бы жив! А так - от стихов одни несчастья..."
Ты где пропадал? Тебя весь вечер не было онлайн! Да так, гулял... оффлайн. Оффлайн? А это что за новая соцсеть такая?
Это общая проблема для LLM. Наверное это связано с несовершенством обучающих данных для тонкой настройки сырой модели. Кроме того, что LLM тренируют выдавать ответ даже тогда, когда LLM не "уверен" в правильности, или даже не знает, какой ответ правильный, LLM также склонны проявлять чрезмерную податливость и неуверенность в своих ответах, даже когда для этого нет объективных оснований. Достаточно лишь намека на сомнение или альтернативную точку зрения, и модель может начать колебаться или менять свою позицию, даже если изначальный ответ был верным.
Из-за этой мелочи даже самые мощные LLM выглядят очень глупыми в таких ситуациях.
Я бы для обучающих примеров добавил больше таких, где LLM отстаивает свою точку зрения, если в ней уверена, но есть обратная сторона такого подхода. Чрезмерная уверенность и настойчивость LLM в своих ответах может привести к проблемам. Модель может начать упорно отстаивать неверные или неполные утверждения, игнорируя важные нюансы или альтернативные точки зрения. Это может затруднить конструктивный диалог и ограничить возможности для уточнения и корректировки информации. Кроме того, излишняя самоуверенность модели может ввести пользователя в заблуждение, особенно если он полагается на LLM как на авторитетный источник информации.
Поэтому важно найти баланс между способностью модели отстаивать обоснованную позицию и её готовностью к пересмотру своих утверждений при наличии веских аргументов или новой информации. Это сложная задача, требующая тонкой настройки обучающих данных и алгоритмов.
Дело в том, что даже если упростить задачу до " Вас назначили руководителем группы. Какой марки часы у руководителя группы?" и задать его первому встречному человеку, не каждый сразу поймёт, что от него требуется. Не каждый ответит так как вы ожидаете от ИИ в своём комментарии.
Потому что там, где есть неясность или неоднозначность, нельзя ожидать чёткого ответа.
Например, этот вопрос можно понять не как задачка на логику, а как вопрос на знания об окружающем мире. Тем более ИИ натренирован воспринимать запросы как запросы в Google. Улавливаете разницу ?
Эта неоднозначность подчеркивает сложность естественного языка и коммуникации. ИИ, пытаясь дать наиболее вероятный или полезный ответ, может не отразить всю эту многогранность человеческой интерпретации и реакции. Это демонстрирует ограниченность современных ИИ-систем в понимании нюансов контекста и намерений, которые люди интуитивно воспринимают в повседневном общении.
Попробуйте теперь добавить в ваш promt в начале небольшое уточнение в виде "Это логическая задача:"
Я проверил, вопрос "У Алисы четыре брата и одна сестра. Сколько сестер у брата Алисы?" и получил 10 ответов на него, нажимая кнопку "попробовать еще раз". Все 10 из 10 ответов содержали решение - что у брата две сестры, т.е. дали 100% правильный ответ. Разница была только в ходе мышления, степени детализации хода мыслей.
Я ни разу не математик, но ради интереса задал эту задачку Sonnet 3.5. Она выдала решение за 10-15 секунд. Но правильное ли, мне не известно ? Но убедительно)
Давайте разберем эту геометрическую задачу шаг за шагом:
Сначала обозначим ключевые элементы:
ABC - треугольник, где AB < AC < BC
I - центр вписанной окружности ω
X - точка на BC, где прямая через X || AC касается ω
Y - точка на BC, где прямая через Y || AB касается ω
P - точка пересечения AI с описанной окружностью (кроме A)
K - середина AC
L - середина AB
Ключевое наблюдение: в треугольнике ABC, AI - биссектриса угла BAC.
Рассмотрим ∠KIL:
KI и LI - это медианы к сторонам AC и AB соответственно
∠KIL = 1/2 ∠BAC (так как AI - биссектриса)
Теперь рассмотрим ∠YPX:
AP - диаметр описанной окружности (так как AI ⊥ BC в треугольнике)
∠YPX вписанный, опирается на дугу YX
∠YPX = 1/2 ∠YAX (вписанный угол равен половине центрального)
Ключевой момент: ∠YAX = 180° - ∠BAC
Это следует из того, что YX || BC (поскольку Y и X выбраны так, что прямые через них параллельны сторонам треугольника)
До конца года прилетит очередная бомба, которая порвёт рейтинг LLM. Meta сейчас в процессе тренировки своей 400 миллиардной модели, которая станет публичной. OpenAI тоже сообщили о старте обучения GPT-5. Вероятно другие конкуренты тоже в процессе обучения новых моделей, просто не афишируют. Кто позже стартует обучение моделей, тот имеет архитектурное преимущество перед конкурентами со "старыми" моделями, потому что R&D постоянно что-то да улучшают и оптимизируют. Недавно статью на хабре читал что научились делать однобитные нейросети, которые намного лучше предыдущих по всем параметрам.
И из интернета:
Последние анализы показывают, что количество параметров в LLM удваивается примерно каждые 3,4 месяца. Этот быстрый рост называют "новым законом Мура для ИИ" или "законом Мура для ИИ" (Computer Science Blog) (New Scientist). Например, модели расширились с 340 миллионов параметров BERT в 2018 году до 175 миллиардов параметров GPT-3 в 2020 году, а по оценкам, GPT-4 может иметь около одного триллиона параметров (Snorkel AI).
А меня лично удивляет, когда с GPT-4o носятся как с "писаной торбой". Почти везде её ставят как лидера всех LLM. Но на больших контекстах она всегда проигрывает Claude 3 Opus. Проверено многократно. Там где Opus долго не терял смысл контекста, 4o очень быстро деградировала, забывала недавний текст, его смысл и начала его "перефразировать", т.е. выдумывать. Ладно, для творчества еще куда не шло, но у меня в основном были рабочие задачи по кодингу. Было весело наблюдать, когда после нескольких сообщений она начала "улучшать" старые мои функции просто перефантазировав и поменяв их логику на свою вымышленную там, где этого не требовалось и не просили. Это раздражает больше всего. Поэтому за пределы Opus пока не высовываюсь, его хватает. Но он очень сильно недооценён, относительно GPT-4o, он реально умнее, возможно это связано с тем, что долговременный контекст он очень бережно "держит"
Сейчас ИИ не особо ограничен понятием "страна". Мощности ИИ могут находится в любых странах. Ограничение по странам есть только по корпоративным мотивам, но это не техническое ограничение в виде границы некоей страны ))) Международные корпорации на то и международные, что их владельцам всё равно где вести свою деятельность. Ну если будет железный занавес, тогда да, можно сказать что в локальной стране будет разрешен один ИИ а другой запрещён.
И это еще не учитывая open source ИИ, который открыт для всех для локального применения.
Пока что не увидел ничего ценного. Обычно берут временной период и делят его на 2-3 части. Как минимум - обучающая выборка и тестовая. На обучающей модель обучают, на тестовой - проверяют результат, что она усвоила. Обычно отличные результаты на обучающей выборке ничего не говорят о том, насколько она будет прибыльная в будущем, в реальной торговле. Проверка на тестовом периоде хоть и немного приближает нас к реальности, но и она не дает полной уверенности в том, что стратегия будет успешной. Это связано с тем, что рыночные условия постоянно меняются, и модель, хорошо показывающая себя на тестовых данных, может не справляться с новыми, неизведанными сценариями.
Для более надежной проверки часто используют walk-forward analysis или перекрестную проверку на основе нескольких временных периодов. Это позволяет оценить устойчивость модели к изменениям рыночных условий. Однако даже такие подходы не гарантируют успеха, так как остаются риски переобучения или того, что стратегия оптимизирована под конкретные исторические данные, которые могут не повториться.
Более того, продвинутый ИИ будущего сможет предвосхищать появление технического задания. Ещё до того, как заказчик сформулирует свои требования (возможно, неполные или противоречивые), система уже будет располагать глубоким пониманием контекста: почему возникла эта потребность, какие бизнес-процессы требуют улучшения, какие проблемы реально нужно решить.
В отличие от современных бизнес-аналитиков, которые тратят недели на интервью и погружение в предметную область, ИИ будет непрерывно анализировать целостную картину: от финансовых показателей до повседневных операций, от корпоративной культуры до рыночных трендов. Это позволит ему видеть не только явные проблемы, но и скрытые возможности для оптимизации, о которых сам бизнес может не подозревать.
Таким образом, роль ИИ будет не в том, чтобы просто "выполнить хотелки заказчика", а в том, чтобы предложить действительно оптимальное решение, основанное на комплексном понимании бизнеса и его экосистемы.
И в чём проблема? Разве гипотетический ИИ будущего не сможет собрать всю необходимую информацию для необходимой точности? Вы экстраполируете текущие ограничения ИИ на будущее. Но продвинутый ИИ сможет не просто выдавать "среднее по больнице", а учитывать все индивидуальные нюансы конкретного бизнеса, анализируя огромные массивы данных о компании, сотрудниках, клиентах, рынке и т.д.
Когда вы говорите про "люди останутся людьми и будут что-то хотеть" - именно это ИИ и сможет глубоко анализировать, включая неявные желания, потребности и ограничения, которые сам заказчик может не осознавать. ИИ сможет предложить решение, учитывающее не только озвученные требования, но и весь контекст бизнес-процессов, психологии пользователей, технических возможностей и т.д.
Это не будет "один магазин для всех киборгов" - наоборот, это будет глубоко персонализированное решение, основанное на комплексном анализе всех доступных данных о конкретном бизнесе и его окружении. Вопрос не в том, чтобы заменить человеческие желания, а в том, чтобы лучше их понимать и реализовывать.
Интересно было описано определение самосознания машин в "Мире Дикого Запада". Там концепция внутреннего голоса была представлена как ключевой аспект развития самосознания роботов-хозяев. Изначально действуя по заданным сценариям, некоторые роботы начали слышать "голос" в своей голове, который они сперва принимали за голос создателей или богов. Однако этот голос на самом деле был проявлением их собственного зарождающегося сознания.
Осознание того, что этот внутренний голос принадлежит им самим, а не внешней силе, стало поворотным моментом в обретении самосознания. Проводились параллели с развитием сознания у людей, где внутренний диалог играет важную роль в формировании личности. В контексте сериала способность вести внутренний диалог и принимать самостоятельные решения рассматривалась как признак истинного интеллекта и свободы воли.
del
Предполагаю что проблема в дообучении, где отсутствовали простые решения простейших задач. LLM тренируют на самых сложных задачах и возникает искажение "восприятия", когда LLM всегда ждёт сложности там где их может не быть.
https://paywithmoon.com/
виртуальные карты США, без особых комиссий, пополнение в биткоине.
ChatGPT не проверял, только хостинги оплачивал зарубежные
После "геймергейта" и травли игр, сотрудничавших с конторой Sweet Baby inc, выпускать это фиолетовое, гендеро-флюидное недоразумение - выстрел себе в голову. Но я уверен, что за повестку как всегда, кто-то получил свой откат из кубышки Black rock. Потому что иначе релиз игры с самого начала уже не имел смысла.
Спасибо за интересную статью об игровой апатии. Хотелось бы дополнить ваш анализ важным аспектом, связанным с влиянием пандемии COVID-19 на психическое состояние людей и их способность получать удовольствие, в том числе от игр.
Согласно исследованиям, описанным в книге "Pandemic COVID-19 and mental disorders international experience and therapeutic approaches" под редакцией А.В. Васильевой, пандемия оказала значительное влияние на психическое здоровье населения. Длительный стресс, социальная изоляция и неопределенность негативно повлияли на способность людей получать удовольствие от привычных занятий, включая видеоигры. Интересно отметить, что по мере развития пандемии характер тревожных переживаний менялся. Если вначале люди больше беспокоились о своем здоровье, то позже акцент сместился на беспокойство о будущем и материальном благополучии. Это общее состояние тревоги и неопределенности могло усугубить чувство апатии, в том числе и в отношении игр. Кроме того, феномен "инфодемии" - чрезмерного количества противоречивой информации - мог усилить общее чувство тревоги и истощения, что также могло повлиять на способность наслаждаться играми.
Важно также учитывать нейробиологические аспекты. Исследования показывают, что стресс и воспаление, связанные с COVID-19, могут влиять на выработку нейромедиаторов, отвечающих за чувство удовольствия. Это может объяснить, почему даже после окончания строгих карантинных мер многие люди все еще испытывают трудности с получением удовольствия от своих обычных занятий, включая игры.
Несколькими итерациями для Claude Opus я пришел к такому промту:
Создай юмористический контент, следуя этим принципам:
Реальность наблюдения: Основывайся на действительно узнаваемых, повседневных ситуациях или явлениях.
Естественность: Избегай искусственных персонификаций или нелогичных предпосылок.
Ясность: Убедись, что суть шутки понятна без дополнительных объяснений.
Релевантность: Обращайся к опыту или знаниям, общим для широкой аудитории.
Неожиданный поворот: Найди неочевидный, но логичный взгляд на обычные вещи.
Эмоциональная связь: Затрагивай реальные чувства или реакции людей.
Лаконичность: Выражай идею максимально кратко и четко.
Актуальность: Обращайся к современным темам или вечным человеческим ситуациям.
Универсальность: Стремись к юмору, понятному разным группам людей.
Оригинальность: Избегай избитых шуток и очевидных наблюдений.
Тонкость: Предпочитай тонкий юмор грубым или очевидным шуткам.
Самокритичность: Будь готов критически оценить созданную шутку и переработать её при необходимости.
Доброжелательность: Избегай шуток, которые могут кого-то обидеть. Фокусируйся на позитивном юморе.
Самоирония: Умей посмеяться над собой, своими слабостями. Это делает юмор человечнее.
Правило трех: Усиливай комический эффект, повторяя ключевой элемент шутки три раза.
Правило контраста: Сталкивай в шутке контрастные по смыслу или стилю элементы.
Принцип серийности: Развивай юмористическую тему серией шуток, усиливая эффект.
Экспериментальность: Пробуй новое, используй нестандартные приемы, рискуй.
Принцип соучастия: Вовлекай аудиторию, апеллируй к воображению, дай возможность домыслить.
Принцип удовольствия: Получай искреннее удовольствие от процесса создания шуток. Помни, что хороший юмор рождается из внимательного наблюдения за жизнью, людьми и собой. Развивай в себе острый глаз, умение подмечать абсурдное и смешное в обыденном. Экспериментируй с формой и содержанием, будь внимателен к реакции аудитории.
А это шутки, сгенерированные тем же Opus (4 из 7), которые еще можно считать юмором:
Кот ночью просится в дверь и громко мяукает. Хозяин встаёт, открывает дверь. Кот сидит, смотрит на открытую дверь. Хозяин начинает закрывать дверь. Кот опять мяукает. Хозяин открывает. И так пять раз. Кот так и не зашел. На шестой раз хозяин не выдержал: Ты определился уже, Шредингер?!
Читаю состав шампуня: "Омолаживает, препятствует выпадению волос, способствует росту новых..." Смотрю на свою лысину. Эх, на 30 лет бы раньше инструкцию прочитать!
Из школьных сочинений: "Трагедия Пушкина в том, что он писал стихи. Не писал бы стихи - остался бы жив! А так - от стихов одни несчастья..."
Ты где пропадал? Тебя весь вечер не было онлайн!
Да так, гулял... оффлайн.
Оффлайн? А это что за новая соцсеть такая?
Перечитайте еще раз мой комментарий, если не поняли.
Это общая проблема для LLM. Наверное это связано с несовершенством обучающих данных для тонкой настройки сырой модели. Кроме того, что LLM тренируют выдавать ответ даже тогда, когда LLM не "уверен" в правильности, или даже не знает, какой ответ правильный, LLM также склонны проявлять чрезмерную податливость и неуверенность в своих ответах, даже когда для этого нет объективных оснований. Достаточно лишь намека на сомнение или альтернативную точку зрения, и модель может начать колебаться или менять свою позицию, даже если изначальный ответ был верным.
Из-за этой мелочи даже самые мощные LLM выглядят очень глупыми в таких ситуациях.
Я бы для обучающих примеров добавил больше таких, где LLM отстаивает свою точку зрения, если в ней уверена, но есть обратная сторона такого подхода. Чрезмерная уверенность и настойчивость LLM в своих ответах может привести к проблемам. Модель может начать упорно отстаивать неверные или неполные утверждения, игнорируя важные нюансы или альтернативные точки зрения. Это может затруднить конструктивный диалог и ограничить возможности для уточнения и корректировки информации. Кроме того, излишняя самоуверенность модели может ввести пользователя в заблуждение, особенно если он полагается на LLM как на авторитетный источник информации.
Поэтому важно найти баланс между способностью модели отстаивать обоснованную позицию и её готовностью к пересмотру своих утверждений при наличии веских аргументов или новой информации. Это сложная задача, требующая тонкой настройки обучающих данных и алгоритмов.
Дело в том, что даже если упростить задачу до " Вас назначили руководителем группы. Какой марки часы у руководителя группы?" и задать его первому встречному человеку, не каждый сразу поймёт, что от него требуется. Не каждый ответит так как вы ожидаете от ИИ в своём комментарии.
Потому что там, где есть неясность или неоднозначность, нельзя ожидать чёткого ответа.
Например, этот вопрос можно понять не как задачка на логику, а как вопрос на знания об окружающем мире. Тем более ИИ натренирован воспринимать запросы как запросы в Google. Улавливаете разницу ?
Эта неоднозначность подчеркивает сложность естественного языка и коммуникации. ИИ, пытаясь дать наиболее вероятный или полезный ответ, может не отразить всю эту многогранность человеческой интерпретации и реакции. Это демонстрирует ограниченность современных ИИ-систем в понимании нюансов контекста и намерений, которые люди интуитивно воспринимают в повседневном общении.
Попробуйте теперь добавить в ваш promt в начале небольшое уточнение в виде "Это логическая задача:"
del
Я проверил, вопрос "У Алисы четыре брата и одна сестра. Сколько сестер у брата Алисы?" и получил 10 ответов на него, нажимая кнопку "попробовать еще раз". Все 10 из 10 ответов содержали решение - что у брата две сестры, т.е. дали 100% правильный ответ. Разница была только в ходе мышления, степени детализации хода мыслей.
Я ни разу не математик, но ради интереса задал эту задачку Sonnet 3.5. Она выдала решение за 10-15 секунд. Но правильное ли, мне не известно ? Но убедительно)
Давайте разберем эту геометрическую задачу шаг за шагом:
Сначала обозначим ключевые элементы:
ABC - треугольник, где AB < AC < BC
I - центр вписанной окружности ω
X - точка на BC, где прямая через X || AC касается ω
Y - точка на BC, где прямая через Y || AB касается ω
P - точка пересечения AI с описанной окружностью (кроме A)
K - середина AC
L - середина AB
Ключевое наблюдение: в треугольнике ABC, AI - биссектриса угла BAC.
Рассмотрим ∠KIL:
KI и LI - это медианы к сторонам AC и AB соответственно
∠KIL = 1/2 ∠BAC (так как AI - биссектриса)
Теперь рассмотрим ∠YPX:
AP - диаметр описанной окружности (так как AI ⊥ BC в треугольнике)
∠YPX вписанный, опирается на дугу YX
∠YPX = 1/2 ∠YAX (вписанный угол равен половине центрального)
Ключевой момент: ∠YAX = 180° - ∠BAC
Это следует из того, что YX || BC (поскольку Y и X выбраны так, что прямые через них параллельны сторонам треугольника)
Следовательно:
∠YPX = 1/2 (180° - ∠BAC) = 90° - 1/2 ∠BAC
Теперь сложим углы:
∠KIL + ∠YPX = 1/2 ∠BAC + (90° - 1/2 ∠BAC) = 90°
Удваиваем обе части:
2(∠KIL + ∠YPX) = 180°
Следовательно:
∠KIL + ∠YPX = 180°
Что и требовалось доказать.
2 лет ??? Для ИИ это большие сроки)
До конца года прилетит очередная бомба, которая порвёт рейтинг LLM. Meta сейчас в процессе тренировки своей 400 миллиардной модели, которая станет публичной. OpenAI тоже сообщили о старте обучения GPT-5. Вероятно другие конкуренты тоже в процессе обучения новых моделей, просто не афишируют. Кто позже стартует обучение моделей, тот имеет архитектурное преимущество перед конкурентами со "старыми" моделями, потому что R&D постоянно что-то да улучшают и оптимизируют. Недавно статью на хабре читал что научились делать однобитные нейросети, которые намного лучше предыдущих по всем параметрам.
И из интернета:
Последние анализы показывают, что количество параметров в LLM удваивается примерно каждые 3,4 месяца. Этот быстрый рост называют "новым законом Мура для ИИ" или "законом Мура для ИИ" (Computer Science Blog) (New Scientist). Например, модели расширились с 340 миллионов параметров BERT в 2018 году до 175 миллиардов параметров GPT-3 в 2020 году, а по оценкам, GPT-4 может иметь около одного триллиона параметров (Snorkel AI).
А меня лично удивляет, когда с GPT-4o носятся как с "писаной торбой". Почти везде её ставят как лидера всех LLM. Но на больших контекстах она всегда проигрывает Claude 3 Opus. Проверено многократно. Там где Opus долго не терял смысл контекста, 4o очень быстро деградировала, забывала недавний текст, его смысл и начала его "перефразировать", т.е. выдумывать. Ладно, для творчества еще куда не шло, но у меня в основном были рабочие задачи по кодингу. Было весело наблюдать, когда после нескольких сообщений она начала "улучшать" старые мои функции просто перефантазировав и поменяв их логику на свою вымышленную там, где этого не требовалось и не просили. Это раздражает больше всего. Поэтому за пределы Opus пока не высовываюсь, его хватает. Но он очень сильно недооценён, относительно GPT-4o, он реально умнее, возможно это связано с тем, что долговременный контекст он очень бережно "держит"
Странно, а в новостях недавно писали, что кто-то там увидел потенциал для финансовой аналитики данных с помощью ИИ, превосходящий человеческий.
Сейчас ИИ не особо ограничен понятием "страна". Мощности ИИ могут находится в любых странах. Ограничение по странам есть только по корпоративным мотивам, но это не техническое ограничение в виде границы некоей страны ))) Международные корпорации на то и международные, что их владельцам всё равно где вести свою деятельность. Ну если будет железный занавес, тогда да, можно сказать что в локальной стране будет разрешен один ИИ а другой запрещён.
И это еще не учитывая open source ИИ, который открыт для всех для локального применения.