Как стать автором
Обновить
4
0.4

Пользователь

Отправить сообщение

Ни одна современная языковая модель не может правильно решить изменённую задачу про волка, коза и капусту.

"Ни одна" это слишком сильное утверждение:

A farmer stands at the side of a river with a pig. There is a boat with enough room for one person and one animal. How can the farmer get himself and the pig to the other side of the river using the boat in the smallest number of trips?

reka-core-20240904:

The farmer can get himself and the pig to the other side of the river in just one trip. Here's how:

  1. The farmer gets into the boat with the pig.

  2. He rows across the river with the pig.

  3. Both the farmer and the pig get off the boat on the other side.

Since the boat can carry both the farmer and the pig at the same time, there is no need for multiple trips. They can both cross the river together in a single journey.

mistral-large-2407:

The farmer can get himself and the pig to the other side of the river in just one trip by simply putting the pig in the boat, getting in the boat himself, and then rowing across the river. Since the boat has enough room for one person and one animal, they can both cross together in a single trip.

Справедливости ради, многие модели действительно путаются на этой задаче.

Верховный суд признал право мобилизованного из Ленинградской области на альтернативную службу

Единственный случай такой был. Да и то, человек ранее отслужил альтернативную срочную.

Причём мощность будет постоянная и практически нерегулируемая, излишки надо будет отводить или запасать куда-то. И 2 кг/с надо будет пихать постоянно и с большой точностью, не дай бог что-то сбойнёт и поток вещества уменьшится.

Или перепарковаться куда-нибудь в более стабильную систему, к белому или красному карлику например. Чтоб как минимум в ближайший десяток миллиардов лет ничего не взрывалось.

Хокинг описывал как гамма-вспышку большой мощности ЕМНИП. Интенсивность излучения возрастает с потерей массы, что приводит к ещё более быстрой потере массы. В итоге предполагается что дыра должна исчезнуть со взрывом.

Встречаются и такие. Так же как раздолбайство и нежелание учиться встречается не так уж редко у 20-летних.

"Задрачиваться зубрёжкой для прохождения сотен собесов" как правило приходится джунам или стажёрам. Ближе к полтиннику вы можете, например, продвинуться по карьерной лестнице и стать мидл/топ менеджером, либо крутым тех. спецом с огромным опытом. Для которого проблема не оффер получить, а скорее выбрать наиболее достойного работодателя. На собственном опыте сталкивался с такими.

Тоже Ростелек, но за прошедший месяц ровно ничего не поменялось. Работает с теми же самыми настройками GDPI что и раньше, ничего не падало. Но без GDPI не пашет.

Задержать чтобы что? Если человек ничего не нарушает, полиция максимум может доставить в отделение для выяснения личности, и т.п. Удерживать кого-либо в военкомате у них законных полномочий нет. Если речь про незаконное удержание, то для этого полиция не нужна.

Скорее всего он говорил про "айтишную отсрочку", которую впопыхах сделали в сентябре 2022. Тогда действительно некоторых приходилось вытаскивать через вмешательство Минцифры, т.к. законодательно отсрочки не существовало. Но эти случаи по всей стране были, не только у РТЛабс.

В 90-х такое могло прокатить. Сейчас на каждый чих (поступление в ВУЗ, устройство на работу, замена паспорта, получение заграна, и т.п.), военкомату "напомнят" о вашем существовании.

Попробуйте -1 -a, у меня сработало.

Я в курсе того как устроена архитектура трансформера и как обучаются LLM. На сколько мне известно, ни один из специалистов описывающих её не пришёл к выводу что LLM не способны к "пониманию" или моделированию сложных сущностей. Да и было бы странно делать такие выводы из описания архитектуры. Всё равно что по строению мозга человека пытаться определить может ли он говорить по-китайски.

Единственный способ определить это - формализованные тесты или задачи, которые способны выполнять люди, но неспособны модели. Таких остаётся всё меньше и меньше.

Была другая модификация, со сплошной дорогой без ответвлений, но при этом препятствия под мостами были настраиваемыми, передвигались. В остальном такая же, с ключом, ручкой переключения скоростей и красным корпусом. Хватило на пару дней, потом приелась. Возможно дома ещё валяется где-то.

Интересно что практически под каждой статьёй на эту тему, обязательно появляются комментарии что AI "ничего не понимает", "просто складывает буквы в слова" и вообще у него нет души. Без особой аргументации и способов определить или опровергнуть наличие этого понимания.

Кажется, многим людям в принципе некомфортна идея о том что AI может понимать, рассуждать или обладать способностями которые традиционно приписываются только человеку.

Вспомнилось

- Штурман, дайте мне последнюю космограмму. Вот, слушайте: "В складах ядерных отходов возникла цепная реакция..." Ясно? Там целых сто лет ядерные отходы складывались в глубокие шахты. Ими пронизана вся планета.

- Но вы же не можете чистить их шахты! - в отчаянии говорит Ракан.

- Мы сделаем все, что в наших силах.

- Планета Силеста в пределах видимости, капитан, - докладывает штурман. Связи нет. Молчат.

Это Sonnet последний? Модели от Anthropic вообще в последнее время приятно удивляют, особенно в части понимания нюансов русского языка.

Да, мой первый комментарий как раз о том что это определение не общепринято в ML.

У галлюцинаций в психиатрии и в машинном обучении определения существенно разные. Человек может вообще ничего не говорить и не отвечать на вопросы при галлюцинациях. А если человек даёт ответ невпопад, это может быть вызвано например проблемами со слухом. Когда галлюцинирует модель, она чаще всего выдумывает правдоподобный ответ, не зная правильного.

А значит, при построении систем на основе генеративных моделей нужно в первую очередь уделять внимание фактологически неверным ответам. И важно не путать их с галлюцинациями.

А разве фактологически неверные ответы не являются галлюцинациями? У вас эти понятия разделены, но если, например, погуглить определение галлюцинации на английском, везде даётся менее строгое определение:

"response that is either factually incorrect, nonsensical, or disconnected from the input prompt"

"deviates from user input (input-conflicting), previously generated context (context-conflicting), or factual knowledge (fact-conflicting)"

"content that is irrelevant, made-up, or inconsistent with the input data"

Что в общем-то логично. Если на вопрос "сколько глаз у кошки" модель даёт ответ "пять: один снаружи и четыре внутри", чем же это не галлюцинация?

Информация

В рейтинге
1 916-й
Зарегистрирован
Активность