Как стать автором
Обновить

Комментарии 85

Вассерман 

Здесь опечатка, надо через Ы вместо А.

Выссермын? Монгол, что ли?

Эээ, а мы тут причём?

Согласен полностью. Но при условии, что фамилия начинается с буквы Ы

За Правду с Маском отдельный плюс

А за правду про антипода Маска почему-то ставят минусы.

Да, не так часто вижу конструктивную критику

>> Эта разница аж в 1,8% говорит о том, что рыночек совершенно не исключает вероятность дефолта США на горизонте ближайших двух–трех месяцев.

Или о повышении ставки в течение ближайших двух-трех месяцев... Вы свои статьи монетизируете размещением эссе Михаила Леонтьева?

Только не о повышении, а о понижении. И если есть ожидания, что это произойдет через три месяца - то это никак не повлияет на доходности текущих трехмесячных бумаг, они уже погасятся к этому времени.

Поэтому я немного застилменю ваш тезис: возможно, вы хотели сказать, что рынок ожидает понижения ставки ФРС аж на 1 процентный пункт сразу в течение ближайшего месяца.

Такое теоретически возможно: например, мы видели такое снижение в марте 2020-го. Но это экстренная мера для каких-то супер-выдающихся событий - пока мы не видим даже предпосылок к этому, чтобы говорить, что это более вероятное объяснение.

>> Только не о повышении, а о понижении

Путаете повышение доходности и стоимости облигации. В общем случае, когда стоимость облигации растет, доходность по ней понижается и наоборот. То есть когда ФРС повышает ставку, облигации падают в цене, но это значит что доходность по ним растёт.

>> И если есть ожидания, что это произойдет через три месяца - то это никак не повлияет на доходности текущих трехмесячных бумаг, они уже погасятся к этому времени.

Посыпаю голову пеплом, тут напутал я, да.

>> Поэтому я немного застилменю ваш тезис: возможно, вы хотели сказать, что рынок ожидает понижения ставки ФРС аж на 1 процентный пункт сразу в течение ближайшего месяца.

Да, спасибо, ловите плюсик, но всё таки к "повышению".

Ещё как вариант - обычный избыток ликвидности в моменте и не готовность их размещать в долгую. На фоне крахов банков риск-менеджеры в моменте решили порекомендовать увеличить объем текущих средств, из-за чего от резкого спроса на них они выросли в цене и соответственно доходность по ним упала.

Путаете повышение доходности и стоимости облигации.

Возможно, это всё же вы что-то путаете. Вы написали, что текущий спред между 1m & 3m Treasury Bills может объясняться ожиданиями повышения ставки. Это объяснение не работает математически - чтобы закрыть этот гэп, наоборот, требуется ожидание резкого понижения процентной ставки.

>> Это объяснение не работает математически

Может быть, если предположить что имеется бесконечное число каждого из "1m & 3m Treasury Bills", то да, но думать о таком бессмысленно.

Давайте по другому, ещё проще - у вас миллион рублей, который Вы можете разместить на 1 месяц под 3% или на 3 месяца под 5%, при этом Вы уверены, что через месяц ставка снизится. Как Вы его разместите? Логично размещать всё под 5%, потому что мало того, что вы потеряете процент от более низкого месячного размещения, дак еще и дальше разместите уже по ставке ниже. Понимаете? Если же уверены, что ставка вырастет, то конечно логично разместиться сейчас под 3%, чтобы дальше на 3 месяца разместится уже под более высокую ставку на длительный срок.

Но если у Вас в голове "блин, не понимаю что вообще происходит, давайте подождем", то Вы размещаетесь на короткий срок и согласны на любую предложенную ставку, потому что даже 0,1% лучше чем 0%. К тому же будь это вера в то, что инструмент дефолтный (всмысле, по нему может произойти дефолт, а не инструмент по умолчанию, что к нему также применимо), то мне кажется разница в 2 месяца между сроками погашения вообще никакой роли играть не должна. Речь то не о том, что доходность 3-х месячных стала запредельной, а о том, что доходность 1-месячных упала (выросла на них цена).

Это объяснение не работает математически

Дошел до дома - сорри, тут конечно я затупил на ходу (перепутал направление гэпа между ставками)! Вы правы про повышение ставки, а я написал ерунду чуть выше.

Я бы сказал, что текущая ситуация, когда одномесячные Treasuries дают доходность 3,36% при ставке овернайта Fed Funds Rate 4,83% - это какая-то аномалия. В принципе, такая форма кривой ставок с огромным разрывом для бумаг с разницей в сроке погашения один месяц - это крайне аномальная штука. Сравните, например, ситуацию в начале апреля (где гэп был нулевой) и текущую: https://home.treasury.gov/resource-center/data-chart-center/interest-rates/TextView?type=daily_treasury_yield_curve&field_tdr_date_value_month=202304

На мой взгляд, говорить, что рынок реально ожидает однократное повышение ставки одномесячных treasuries на 1,6% через месяц, а вся остальная кривая при этом останется плюс-минус такой же - это звучит в каком-то смысле даже более фантастично, чем история с дефолтом.

>> Сравните, например, ситуацию в начале апреля (где гэп был нулевой) и текущую

Действительно интересная ситуация с гэпами и их расширением. Причем дальше от года ситуация разворачивается. А вот с 20 апреля происходит резкое падение месячной ставки аж на пол процентной ставки, при том что остальные остаются практически нетронутыми - видимо здесь уж начинает играть больше фактор описанный в последнем абзаце второго комментария с ажиотажным спросом на них. Что на фоне такой ставки овернайта оооооочень странно.

Про 1,6%, конечно перебор, но видимо скопление разных факторов.

по слухам просто на днях уточнили вниз оценку собранных налогов этого года, меньше свободных денег - более опасна пляска с поднятием потолка гос долга, но только в краткосрочном плане - все понимают, что на долгую пляску никто не пойдет по политическим причинам, типа народ не поймет

если с gap между краткосрочными и долгосрочными рисками дефолта понятно, какие еще вопросы?

Извините, я Вас не понял. Вы же не путаете "поднятие потолка гос.долга" с "дефолтом"? Например, в истории уже вполне себе были шутдауны. В чем принципиальная разница - по общему правилу запрещено оплачивать заимствования новыми заимствованиями, для этого есть процедура рефинансирования, являющаяся маркером проблем.

да нет не путаю, конечно практически намного более вероятна угроза government shutdown, чем default (таки не аргентина, хотя исключать нельзя), но short term securities учитывают все возможные риски, в данном случае повысились краткосрочные риски -> больше спрос на securities -> low yield -> gap,

учитывая близость выборов, все сильно политизировано, но думаю что серьезных проблем с бюджетом не будет, imho смотреть надо другое, в первую очередь инфляцию и состояние банков

 рыночек совершенно не исключает вероятность дефолта США на горизонте ближайших двух–трех месяцев.

Опять? Если верить нашим СМИ, уже сто лет, как западный капитализм вот-вот загнется. Осталось лишь пару месяцев потерпеть.

Извините

Рыночков в США осталось на 2-3 месяца. Максимум 5.

А что потом? Неужели коммунизм наступит?

А потом снова нужно будет еще немножко потерпеть.

Судя по всему, не все знакомы с актуальными мемами и аж в карму за шутку минусуют. Надо будет тег сарказм начать выставлять)

Слишком тонко, наверное. Восполнил вам, чем смог)

Опять? Если верить нашим СМИ, уже сто лет, как западный капитализм вот-вот загнется.

А вы, простите, отличаете "я считаю что рынок сша дефолтнется" и "судя по этим маркерам, примерно Х% рынка ожидает дефолт"

Итак, уже позавчера гэп сократился, тем не менее не смотря на повышение потолка сегодня, пока ещё сохраняется разрыв в ~1%. Можно предположить, что вес фактора "опасение дефолта" оценивался в 0,5% доходности на месяц без сокращения доходности на перспективу. Насколько это близко к краху США? Логично ли сравнение заявлений в статье с заявлениями известных одиозных персонажей? Существовали ли более логичные выводы, на которые можно было сослаться?

Поймите, в России у многих людей острая аллергическая реакция на бессодержательную пропаганду, и как с аллергией на арахис, от того, что его подадут под каким-то соусом скрывающим вкус, цвет и запах, аллергия никуда не денется.

не смотря на повышение потолка сегодня

О каком повышении потолка идет речь?

О том, который предусмотрен принятым законопроектом от палаты представителей. Теперь впереди лишь поиск компромисса по урезанию расходов.

Потолок по факту не повысили - есть только первая переговорная позиция республиканцев. То, что "лишь впереди" - это и есть основное рубилово между демократами и республиканцами, от которого будет зависеть, что там в итоге с дефолтом может или не может получиться.

Одобрить 1,5 трлн.долларов со стартовой позицией в виде шантажа поддержкой малоимущих ради предсмертных дивидендов традиционной энергетики сохраняют риск дефолта (без воды - четко оговоренные границы и четкие требования) - "только первая переговорная позиция республиканцев"? Мне кажется у Вас травма от российской политики, где как бы не возмущалась законодательная власть, как сказала исполнительная - так и голосуют. Здесь же уже вполне прошедшие первые раунды переговоров и принципиальное согласие с их параметрами - не зря сами республиканцы заявляют об этом как о вполне действенном "повышении потолка гос.долга, которого не могли добиться демократы". Хотя если у республиканцев цель переизбрать Байдена, то вполне может быть, но это было бы очень странно...

Upd: С другой стороны, при подходе, что шансы блондинки встретить динозавра не меняются ни при каких факторах (даже ее смерти - есть же еще шанс что есть рай), действительно, дефолт либо будет, либо нет. То же касается и абсолютных изменений шансов - ситуация поменялась лишь самую малость, в то время как относительно тех шансов что были...

Я не специалист в американской политике - могу только опираться на мнения западных политологов. Все мнения, которые я видел, говорят о том, что этот закон почти наверняка не будет принят в таком виде, и что впереди сложный процесс взаимного торга.

Не очень понимаю, почему вы аргументируете "потолок госдолга уже подняли, гэп между доходностями бумаг остался - вот мы и доказали, что автор в статье написал бессодержательную пропаганду!" Нет, потолок госдолга еще не подняли - это факт.

Про бессодержательную пропаганду это мы с Вами в другой ветке, - в этой ветке:

>> "я считаю что рынок сша дефолтнется" и "судя по этим маркерам, примерно Х% рынка ожидает дефолт"

указывается что автор собственно и пишет "я считаю что рынок сша дефолтнется", а маркеры для вида.

>> Я не специалист в американской политике

Зато в каждой статье пишете о том, что скоро в США дефолт... а про то, что потолок уже с января достигнут тоже наверное не в курсе или забыли? Как же так США без заимствований существуют уже аж 3 месяца...

>> могу только опираться на мнения западных политологов

Это которых? Тех, которые говорят о том, что Байден это худший президент в истории США и при нем со страной происходит всё самое плохое. или тех, которые изображают из него ястреба, готового принципиального поставить всё на кон ради рабочего класса? Ссылаться на неопознанный авторитет - это что-то новенькое...

>> Все мнения, которые я видел, говорят о том, что этот закон почти наверняка не будет принят в таком виде, и что впереди сложный процесс взаимного торга.

Вроде мы в каждом сообщении с Вами итак об этом говорим, зачем это повторять? Про сложный процесс - наоборот, не устану повторять пока вы не приведёте аргумент за обратное, это уже вполне понятный процесс, имеющий вполне осязаемые границы.

>> потолок госдолга уже подняли, гэп между доходностями бумаг остался

Не совсем так (даже совсем не так), о том и речь, что гэп сократился. Он кстати уже ниже процента, сократившись ещё на 0,36 за вчерашний день от решения (всё по вашей ссылке), а перед принятием компромиссного он сократился за 3 дня больше чем на пол процента. Суммарно - целый процент.

Про бессодержательную пропаганду это мы с Вами в другой ветке

Это ваша цитата из текущей ветки. Или вы имели не мою статью, когда это писали?

указывается что автор собственно и пишет "я считаю что рынок сша дефолтнется", а маркеры для вида.

Я правильно понял - что вам виднее, чем мне, какой скрытый смысл я вкладываю в свои тексты, и какую часть текста можно пометить как "маркеры для вида"?

Зато в каждой статье пишете о том, что скоро в США дефолт...

Я сомневаюсь, что у вас получится, но попробуйте:

  1. Посчитать количество моих статей хотя бы за последний месяц и указать процент из них, где дефолт в США хотя бы просто упоминается.

  2. Привести конкретную цитату, где я пишу, что в США скоро будет дефолт.

В статье, которую вы прямо сейчас комментируете, я, между прочим, пишу, что я дефолта не ожидаю: "Если честно, лично я с трудом представляю полноценный дефолт США по своим обязательствам в собственной валюте". Но у вас, кажется, какая-то фиксация на желании меня записать в пропагандисты - поэтому вы за меня додумываете какие-то несуществующие тезисы и с ними воюете.

Ссылаться на неопознанный авторитет - это что-то новенькое...

Ну давайте я вам накидаю ссылок с первой страницы гугла. Вы всё равно скажете, что это всё неправильные эксперты:

https://www.nytimes.com/2023/04/27/us/politics/house-debt-limit.html

https://edition.cnn.com/2023/04/27/politics/debt-ceiling-crisis-kevin-mccarthy/index.html

https://www.reuters.com/world/us/democrats-republicans-dig-debt-ceiling-standoff-after-house-action-2023-04-27/

https://www.nbcnews.com/politics/congress/house-republicans-eye-wednesday-vote-debt-limit-bill-making-changes-rcna81326

https://www.cnbc.com/2023/04/26/debt-ceiling-house-passes-gop-bill-mccarthy-tries-to-draw-biden-into-talks.html

Вроде мы в каждом сообщении с Вами итак об этом говорим, зачем это повторять? Про сложный процесс - наоборот, не устану повторять пока вы не приведёте аргумент за обратное, это уже вполне понятный процесс, имеющий вполне осязаемые границы.

Не устану повторять, вы начали с тезиса "потолок госдолга уже подняли, гэп между доходностями бумаг остался - вот мы и доказали, что автор в статье написал бессодержательную пропаганду!" По факту выяснилось, что потолок госдолга не подняли. Вы можете еще раз объяснить свой комментарий? https://habr.com/ru/articles/731088/comments/#comment_25491286

Правильно ли я вижу, что вы в нем пишете "Можно предположить, что вес фактора "опасение дефолта" оценивался в 0,5% доходности" - постулируя по сути, что потолок госдолга уже по факту поднят и дефолта уже точно не может быть? Если нет - то о чем вы писали в этом комментарии?

>> Я правильно понял - что вам виднее, чем мне, какой скрытый смысл я вкладываю в свои тексты, и какую часть текста можно пометить как "маркеры для вида"?

Скрытый смысл? Побойтесь бога, всё на виду.

>> Ну давайте я вам накидаю ссылок с первой страницы гугла. Вы всё равно скажете, что это всё неправильные эксперты:

Пэйволл, констатация фактов без всяких экспертов, просто новости... констатация факта кто что контролирует, кто с какими позициями подходит, кто поддержал, что поддержал... в лучшем случае касательно "дальнейших сложностей" пишется "в общем будет тяжело". Короче говоря "новости", а не "экспертиза".

>> Я сомневаюсь, что у вас получится, но попробуйте

Ну если "Рынок боится дефолта США" из названия статьи первыми же словами, не считать за подобное, то конечно не получится. Надо извлечь урок из общения с Вами, что утрировать ни в коем случае нельзя - в прошлой статье Вы вполне успешно протащили мысль, что от повышения цен на нефть "больше всего расстроены американцы", точно также не разбираясь в их политике энергонезависимости, как признали здесь, что не являетесь экспертом по американскому гос.долгу. Что в обоих случаях не останавливает Вас от громких заявлений. Потому переформулирую - "зато в каждой статье пишете, насколько плохо США от всего".

Копаться в Ваших статьях не вижу смысла, чтобы не попадаться на тот же блеф, что Вы выдали приведя новостные, а не аналитические статьи.

>> постулируя по сути, что потолок госдолга уже по факту поднят

Де юро - не поднят, де факто - поднят. Дальше в худшем случае недельный шатдаун, который не выгоден обоим сторонам - республиканцам. Upd: правильнее сказать было, конечно, избавились от угрозы дефолта, но да ладно.

>> Это ваша цитата из текущей ветки. Или вы имели не мою статью, когда это писали?

Да. Как по мне, вполне равнозначно со сравнением Вашего уровня аналитики с аналитикой "Однако, здравствуйте" Михаила Леонтьева в другой ветке, где вроде всё таки пришли к выводу, что фактор "опасения дефолта" там минимален, а значит заявления о нём (опасении рынком) вполне себе "бессодержательная пропаганда".

Пэйволл, констатация фактов без всяких экспертов, просто новости... констатация факта кто что контролирует, кто с какими позициями подходит, кто поддержал, что поддержал...

Как я и предполагал - "все ссылки неправильные!!" Может быть, вы лучше приведете ссылки на консенсус самых уважаемых политических экспертов в самых уважаемых аналитических изданиях по поводу вашего тезиса "Де юро - не поднят, де факто - поднят."?

Ну если "Рынок боится дефолта США" из названия статьи первыми же словами, не считать за подобное, то конечно не получится.

Я правильно понял - вы сам текст статьи предлагаете не читать, а вывод о содержании делаете только из четырех слов в заголовке? И потом приписываете мне тезисы о неизбежном "скором дефолте США", несмотря на то, что в статье написано прямо обратное? И при этом это вы меня обвиняете в "бессодержательной пропаганде"? Вопросов не имею, дальше общаться с вами не вижу смысла.

где вроде всё таки пришли к выводу, что фактор "опасения дефолта" там минимален, а значит заявления о нём (опасении рынком) вполне себе "бессодержательная пропаганда".

Уфф, надеюсь это вы не про меня здесь говорите - к каким выводам я "всё-таки пришел"? =)

>> Как я и предполагал - "все ссылки неправильные!!"

У меня нет двоякого отношения к экспертам, что когда мне надо они правильные, а когда нет - то "они правы только постфактум находя объяснения". Они все работают в неопределенной среде где кроме Демона Лапласа никто не знает ответа. Хотя и тот под сомнением.

>> Я правильно понял

Ну да, речь же о том, что я напрочь проигнорировал всё, что Вы написали по тексту. (Нет) Для человека столь дотошно придирающемуся к каждому слову явно не к лицу делать кликбейтные заголовку... ну да ладно, как скажете.

>> Уфф, надеюсь это вы не про меня здесь говорите - к каким выводам я "всё-таки пришел"? =)

Действительно, надежды нет.

Так речь не за смерть капитализма, а за умирание экономики. Рост инфляции с обанкрочивание банков и прочих крупных рыночных агентов (тот же SVB, например). Рост инфляции и рост цен на нефть приводит к удорожанию товаров и услуг, что в свою очередь пытаются компенисровать ростом зарплат и дальнейшему разгону инфляции.

Не так давно США таки была в состоянии технического дефолта пару недель. Это как раз тогда, когда они решили переписать определение рецессии. А потом в рынок стали лить нефть из резервов.

Кстати, зацените еще сразу вот это видео, в котором Гари Генслера допрашивают с пристрастием про то, чем же является Эфир (ETH) – ценной бумагой или сырьевым товаром (commodity)? А тот крутится, как уж на сковороде, и всеми силами избегает прямого ответа

А что будет в том и в другом случае? Почему они не могут ответить, что это сырьевой товар?

Если ценная бумага - то SEC иски должна предъявлять криптанам; если коммодити - то CFTC. Пока Эфир находится в шредингеровской суперпозиции - как мы видим, иски предъявляют одновременно и те, и те.

Старшип у вас неправильный :-) это фото с тестов второй ступени, которая тоже Старшип :-) они летали года два назад. Недавно летавший Старшип в 2 раза длиннее, и двигатели у него по всей нижней стороне, а не только в центре. Собственно выхлоп от 33 двигателей первой ступени и уничтожил площадку, 33 контролируемых постоянных взрыва...

Блин! Спасибо)

и произвела БВР

так оно ж вроде плановое было. ракета дожгла плановое топливо на подъём с наклоном и стала наворачивать круги в качестве стресс теста. Т.к. сажать обратно это не планировалось был оформлен плановый разбор.

Собственно видео. Отсчёт на 44:30

На фотках выглядит так, как если бы что-то мощное бомбануло прямо на земле

Дык оно фактически и бомбануло.

Криптобиржа Binance ослабила ограничения на клиентов-россиян

Всю почту заспамили по этому поводу. Подозрительная фигня

По плану ракета должна была сделать один разворот, сбросить ступень и лететь дальше - но она стала бесконтрольно крутиться и ее взорвали.

По плану ракета должна была сделать один разворот, сбросить ступень и лететь дальше

Это — программа-максимум.
Программа-минимум — взлететь со стартового стола, передать телеметрию — выполнена.

Выше пишут, что никакого плана лететь дольше 4-х минут не было.

Роберто Метсола

Роберта

Thanks!

Если автор считает неизбежным постоянное повышение потолка госдолга, то почему его неполная реализация под определенный процент не считается неизбежностью ? Насколько я понимаю если спрос будет низкий -> повысят процент -> кредиты в благополучных странах ниже этой ставки перестанут выдавать -> новый виток проблем.

Не очень понял, что имеется в виду под "неполная реализация под определенный процент"

Увеличение госдолга означает что они разрешают самим себе взять в кредит доп. средства, получают они их выпуском дополнительных казначейских облигаций. Если их будут плохо покупать, придется поднять процент по ним, в итоге самая надежная бумага на планете станет более прибыльной, банкам станет невыгодна выдача ипотек по низким ставкам. Не знаю, плавают ли сейчас ставки по ним как в 2008, но тем людям которые имеют низкий остаток после уплаты по счетам станет не по силам тянуть покупку дома. Ну и крупному бизнесу придется кредитоваться под больший процент, т.к. они менее надежные чем местные ОФЗ

Сорри, так и не понял, в чем заключается ваш вопрос ко мне.

«У этой тупой жестянки даже нет памяти, она всё забывает при закрытии диалогового окна!» – Брокман: «Мы тут приделали модуль памяти, в который можно сохранять всякое...»

Видимо речь о сохранении частей диалога пользователя, возможно используемых в качестве контекста в следующей сессии. Сама модель при этом не меняется.


«Да эти модели галлюцинируют, доверять им просто невозможно!» – Брокман: «Вместе с модулем доступа в интернет ChatGPT теперь можно будет попросить факт-чекнуть предложенный ей ответ, и она сама это весьма неплохо сделает.»

От такой проверки сама модель перестала фантазировать? Это принципиальная особенность технологии. Причем в определенных пределах весьма полезная. Человек также фантазирует, это одна из составляющих творческого процесса, напр, при написании стихов. Однако это плохо для ответов связанных с формализованными знаниями, которые требуют точности и повторяемости результатов вне зависимости от контекста.


«Пока у ИИ нет никаких возможностей влиять на мир, это всё детские игрушечки просто!» – Брокман: «А теперь я попрошу ChatGPT запостить это в Твиттер, чтобы все зрители моего Тед-тока смогли это увидеть...»

Возможно через очередной плагин.


«Ваши нейросети – это просто статистические попугаи, которые никогда не смогут в принципе ничего понять» – Брокман: «Да я тут сам офигел, когда выяснилось, что GPT-4 точно складывает 40-значные числа – хотя тупым запоминанием комбинаций этого достичь в принципе невозможно!»

Чудес не бывает, если речь только о самой языковой модели. Она может правильно сложить 40-значные числа для нескольких примеров, но сложит приближенно или неточно куда меньшие числа, см. пример с возведением в степень. Объяснение этому может быть таким.


Нужно различать возможности самой модели с возможностями внешних расширителей.

Однако это плохо для ответов связанных с формализованными знаниями, которые требуют точности и повторяемости результатов вне зависимости от контекста.

Ну так в такой ситуации можно запрашивать только ответы у которых "уровень достоверности 99,99%" или ещё что-то в этом роде.


То есть если модель умеет фантазировать, но при этом всегда знает насколько ответ соответствует реальности, то особой проблемы нет.

То есть если модель умеет фантазировать, но при этом всегда знает насколько ответ соответствует реальности, то особой проблемы нет.

В том то и дело, что она не знает точного ответа, только аппроксимацию, если только такого примера не было в обучающей выборке. Увеличение числа параметров модели и объема обучающей выборки может улучшить результаты, но не решит проблему принципиально. Кроме того механизм сэмплирования может иногда просто гадить изменяя потенциально правильный ответ.

В том то и дело, что она не знает точного ответа

Человек тоже не знает точного ответа. Или точнее иногда он считает что ответ правильный, а на самом деле это не так.


Увеличение числа параметров модели и объема обучающей выборки может улучшить результаты, но не решит проблему принципиально

Речь не о улучшении результата как такового, речь о том что модель может вам сказать насколько она уверена в ответе. И/или дать вам ссылку на источник.

Человек тоже не знает точного ответа. Или точнее иногда он считает что ответ правильный, а на самом деле это не так.

Это зависит от вопроса. Если философского содержания, то да, если формального, то нет. Например, для операций с числами человек знает процедуры вычислений, и для любых чисел теоретически может получить правильный результат. Проблема в ограничениях по памяти, вниманию, скорости мышления. Таких ограничений для для ЯМ нет, однако они не обладают процедурным мышлением и памятью, как человек. В общем случае для этого необходима рекуррентная архитектура сети, а не прямая, как у трансформеров.


Речь не о улучшении результата как такового, речь о том что модель может вам сказать насколько она уверена в ответе.

На основании чего? И как это применимо к формальным выводам? Они либо правильные, либо не правильные. Приводил выше ссылку на примеры вычислений чата, вот еще, сколько пользователь не пытался, не получил ни одного правильного ответа.

Это зависит от вопроса.

Или от человека. То есть когда вы задаёте какой-то вопрос какому-то человеку, то вы не знаете насколько точен его ответ. Естественно за исключением ситуаций когда вы сами уже знаете правильный ответ.

Например, для операций с числами человек знает процедуры вычислений,

Или человек тупой и никогда не ходил в школу. И поэтому не знает. Или он процедуру знает, но ошибся когда вычислял.

На основании чего?

А на основании чего это делает человек? Например на основании достоверности источника откуда взята информация.

И как это применимо к формальным выводам? Они либо правильные, либо не правильные.

Это сколько угодно. Но когда вы задаёте вопрос человеку, то он может быть уверен в своём ответе или нет.

Как то вы перевели обсуждение в гуманитарную плоскость) Мы обсуждаем сложный, но все технический вопрос. Начать с того, что моделируют ЯМ типа GPT на базе трансформерной архтитектуры? В этом исследовании делается вполне обоснованное предположение, что это ассоциативный уровень мышления и памяти человека. Так и есть, причем весьма приближенно. Ассоциативное мышление человека полностью контекстуально, нет никакого механизма сэмплирования, который фактически модифицируем вывод самого трансформера в зависимости от установок. Эти ЯМ полностью вероятностные в отличии даже от ассоциативного уровня мышления человека. Те же фантазии чатов куда менее связанные, чем фантазии человека находящегося в пределах психофизиологической нормы. У человека кроме ассоциативного уровня присутствует еще множество различных форм мышления (здесь подробнее). Среди этих уровней мышления, например, уровни логического и критического мышления. В этом исследовании обсуждаются способы, как включить логику в таких ЯМ, что бы повысит обоснованность ответов.


К чему все это? Не стоит особенно сравнивать возможности человека и эти моделей, и переносить отношения людей на них. Это просто очередное техническое средство, основа для нового поколения интеллектуальных ассистентов, которые придут на смену Сири, Алисе, и др. подобным.


Поэтому остаются актуальными вопросы, как быть с проблемами типа этой и этой, вот еще в дополнение к счету на логику. Они не решаются принципиально не увеличением числа параметров моделей и их обучением, не расширением возможностей с помощью внешних плагинов.

Не стоит особенно сравнивать возможности человека и эти моделей, и переносить отношения людей на них

Никто не переносит отношения людей на модели. Вопрос в том что если вы и без них в общем-то никогда не знаете насколько достоверные ответы вы получаете, то почему вы ожидаете от них чего-то другого?

Привел вам вычислительные примеры точные ответы на которые известны, но чатбот отвечает на них не правильно, хотя иногда близко. Это должно также распространятся на факты, и не должно зависеть от называемого пользователем контекста. Например, при соблюдении нормальных условий вода замерзает при нуле градусов, кипит при стах. Видел диалоги, в которых пользователи убеждали чат, что это не так, и он соглашался. И таких примеров полно. От интеллектуальных ассистентов ожидаешь именно такого поведения, а также при необходимости, по запросу, привести обоснование произведенных вычислений или приведенных фактов. Если такое не возможно по каким либо причинам, то явного указания на это. Это соотносится с возможностями людей. И не нужно давить на то, что всегда можно найти людей, которые подобные задачи выполняют не правильно, поступают не лучше чата, ошибаются, поддаются уговорам, и тп. Как обучать чат так на знаниях всего человечества, а как сравнивать возможности, так найти самого убогого) Что за несправедливость. Или чат уже причислили к защищенным меньшинствам, требования к которым снижены?) Сравнивать нужно только с возможностями специалистов, желательно лучшими в своей области, еще лучше с коллективом таких спецов.

Привел вам вычислительные примеры точные ответы на которые известны, но чатбот отвечает на них не правильно, хотя иногда близко.

Известны кому?


От интеллектуальных ассистентов ожидаешь именно такого поведения. Если такое не возможно по каким либо причинам, то явного указания на это.

Кто это сказал?


Это соотносится с возможностями людей.

Нет, не соотносится. Это максимум соотносится с возможностями отдельных людей и/или в отдельных ситуациях. Люди точно так же могут не знать, фантазировать или просто ошибаться. И даже сами этого не понимать.


Как обучать чат так на знаниях всего человечества, а как сравнивать, так найти самого убогого)

Ну так "знания всего человечества" это в том числе и "ошибочные знания". Хотите чтобы ИИ выдавал вам достоверные ответы, ну так и обучайте его только на достоверных непротиворечивых данных.

Вы вообще какой тезис защищаете? Что чатбот может выдавать любую лажу на вопросы ответы на которые известны точно?

Я защищаю тезис что чатбот может выдавать что угодно в зависимости от того что вы хотите от него получать и как вы его натренировали.


То есть если вы хотите чатбота для того чтобы просто болтать с ним о всяком разном, то не надо ожидать от него 100% достоверной информации.

Я защищаю тезис что чатбот может выдавать что угодно в зависимости от того что вы хотите от него получать и как вы его натренировали.

Понятно, это распространенная заблуждение. Возможности ИНС зависят не только от способа обучения и обучающей выборки, но, и первую очередь, от ее архитектуры. Она определяет общие возможности всей сети.


Пример из биологии. Сколько шимпанзе не учили языку, в любых формах, они не превосходили достижений 2-3 летних детей в этом. Очевидно, дальнейшему развитию мешали ограничения когнитивных способностей и физиологии шимпанзе. В мозге не были развиты отделы поддерживающие усвоение более сложных языковых форм, т.е. попусту имеются архитектурные ограничения поддержки функций в терминах технологии ИНС. Адекватной для достижения возможностей человека, включая языковые, считается архитектура получившая название когнитивной архитектуры (обзор). Архитектура трансформеров пока еще весьма далека от таких требований.


Существующая архитектура ЯМ не может обеспечить того, что от нее хотят получить, не смотря на все попытки закрыть недостатки используя увеличение числа параметров, разные варианты обучения и привлечение дополнительных внешних средств. Это к утверждениям Брокмана, и вслед за ним автора статьи, с обычным упоминанием «вы сейчас находитесь здесь». Улучшения имеются, но реальная продвижка в решении будет только с развитием архитектуры, включая в решении вопроса достоверности ответов. Для этого потребуется уровень обобщения приближающийся к возможностям человека, и включение, как минимум, аналогов логического и критического мышления, выше давал ссылку на некоторые предложения. В перспективе образного уровня, который позволит моделирование ситуаций связанных с вопросами в воображаемом мире (симуляцию), как это в сложных случаях может делать человек.


То есть если вы хотите чатбота для того чтобы просто болтать с ним о всяком разном

Для этого достаточно Элизы 60-х годов) Не нужно пыжиться и отравлять атмосферу CO2 при таких энергозатратах на обучение и эксплуатацию трансформерных ЯМ .

Возможности ИНС зависят не только от способа обучения и обучающей выборки

Да. Но ваша проблема с "недостоверностью ответов" зависит именно от обучающей выборки.


Существующая архитектура ЯМ не может обеспечить того, что от нее хотят получить

Кто хочет? Вы лично?


Для этого достаточно Элизы 60-х годов

Если вам этого достаточно, то и здорово. Используйте её. Другим хочется слегка большего.

Но ваша проблема с "недостоверностью ответов" зависит именно от обучающей выборки.

Нет, привел вам примеры с вычислениями. Для решения этой проблемы требуется обобщение чисел и операций с ними, которое приводит к процедурам вычислений требующих рекуррентности для своего выполнения. В трансформерах в полной мере это не достижимо. Кстати, такого универсального решения не обеспечивают даже специализированные трансформерные ЯМ натренированные на математическом контенте. Всегда нужно перепроверять результаты, в отличии от обычных мат. пакетов.


Кто хочет? Вы лично?

Не только, почитайте коменты в статьях на Хабре посвященных чату с кучей примеров и разочарований от ответов.


Если вам этого достаточно, то и здорово.

Нет, мне не нужет чат, как вы написали "чтобы просто болтать"


Думаю тема дискуссии исчерпана.

Нет, привел вам примеры с вычислениями. Для решения этой проблемы

Для решения этой проблемы достаточно плагина с математикой. Если вам нужно чтобы ИИ умел это правильно делать.


С другой стороны если вам нужны именно правильные вычисления, то зачем вам ИИ? Ну то есть если вам раньше нужны были вычисления, то вы спрашивали их у соседа по площадке или брали калькулятор?


Не только, почитайте коменты в статьях на Хабре посвященных чату с кучей примеров и разочарований от ответов.

Ну то есть люди с какими-то там своими ожиданиями берут рэндомный ИИ и жалуются что он этого не может?

Для решения этой проблемы достаточно плагина с математикой.

Исходно речь шла только о возможностям самих ЯМ. Человек может самостоятельно произвести вычисления. Внешние средства нужны только для ускорения процесса.


За плагины, кстати, нужно будет платить дополнительные деньги. По поводу плагина Вольфрама согласен с другим вашим оппонентом, см. ветку. И для них еще нужно создать правильное задание на их языке из запроса пользователя. Если с пониманием смысла чисел и операций с ними проблема, то задание может просто не правильно составляться.


Ну то есть люди с какими-то там своими ожиданиями берут рэндомный ИИ и жалуются что он этого не может?

Ожидания вполне определенные и естественные. Развиваться ЯМ будут в этом направлении, иначе они не выдержат конкуренции с другими развивающимися решениями, такими как нейроморфные технологии и нейросимволический ИИ.

Исходно речь шла только о возможностям самих ЯМ.

Кто это сказал? Кроме того вы оцениваете "чат-бота" по тому как он умеет считать. Возьмите ИИ, тренируйте его исключительно как "калькулятор" и я уверен что он превзойдёт человека. Правда это относительно бессмысленное занятие.

Человек может самостоятельно произвести вычисления.

До определённого уровня сложности.

За плагины, кстати, нужно будет платить дополнительные деньги

И что? Почему это вдруг стало релевантно?

Ожидания вполне определенные и естественные

Людям дали побаловаться с чатботом. А люди хотят чтобы он мог всё и лучше любого человека. Очень естественные ожидания...

Кто это сказал?

См. исходный комент ветки, это предполагаемый контекст обсуждения. Не нужно переносить возможности внешних расширений на сам бот. Сам он по прежнему только ЯМ на базе архитектуры трансформера, с преимуществами и недостатками технологии. И эти недостатки определяют потолок ее применимости.


Возьмите ИИ, тренируйте его исключительно как "калькулятор" и я уверен что он превзойдёт человека.

Ну, и где такой калькулятор? Вы отдаете себе отчет, что множество чисел и операций с ними бесконечно, а вещественных к тому же не счетно? Все, или почти все с учетом аппроксимирующих возможностей этой архитектуры, в обучающей выборке не приведешь. Это значит всегда будут проблемы с точность для некоторых значений. Речь именно об обучении ЯМ на GPT, а не других архитектур. Хотя, если ввести ограничения сверху и по точности, то обучить теоретически возможно.


До определённого уровня сложности.

Теоретически для любого, если ограничений по времени нет.


Людям дали побаловаться с чатботом. А люди хотят чтобы он мог всё и лучше любого человека.

Нет, не хотят. Это даже потенциально опасно. Хотят, в основном, чтобы он меньше нес напрасную пургу, хотя есть и другие пожелания. Иначе возлагающиеся на эту технологию надежды не оправдаются, как это энтузиасты представляют сейчас себе. Для этого архитектуру придется развивать.


Мой прогноз, на основе собственного, достаточно продолжительного опыта, такой.

См. исходный комент ветки, это предполагаемый контекст обсуждения.

Где?

Ну, и где такой калькулятор?

А кому он нужен? Кто сейчас будет тратить на такое деньги и ради чего?

Теоретически для любого, если ограничений по времени нет

Теоретически и сильный ИИ возможен и термояд. А вот в реальнсти...

Нет, не хотят. Это даже потенциально опасно. Хотят, в основном, чтобы он меньше нес напрасную пургу

Эти два высказывания противоречат друг другу. Люди несут пургу. Если вы хотите чтобы чатбот этого не делал, то вы ожидаете что он будет лучше людей.

Где?

Здесь перечислено и в итоге — "Нужно различать возможности самой модели с возможностями внешних расширителей." Это вполне однозначно определят отношение автора ветки к теме.


А кому он нужен? Кто сейчас будет тратить на такое деньги и ради чего?

Чтобы понять аппроксимирующие возможности этой архитектуры, в конечном итоге пределы обобщаемости. Желательно в зависимости от числа параметров модели и объема обучения. С какой плотностью должны в выборку входить обучающие примеры, чтобы обеспечить требуемую точность аппроксимации для примеров не входящих в нее? Числовые примеры очень удобны в этом отношении, т.к. для них можно ввести количественную оценку точности.


Подробнее..

Повторю, человек воспользуется процедурой вычисления, напр, сложением в столбик, что получить точный результат. Это объясняется тем, что производится обобщение операций с числами на конечном числе примеров и вырабатывается процедуры вычислений. Для этого человек пользуется процедурной памятью и мышлением. Эта память располагается в других отделах мозга нежели ассоциативная, которая позволяет, напр, запоминать таблицы сложения и умножения, или конкретные примеры операций, или мнемоники, и тп. Есть исследования, где эта разность демонстрируется с помощью нейровизуализации активности отделов мозга при выполнении различных типов тестов. Напр, операций с небольшими числами и операций с большими. В последнем случае человек может представлять, как он последовательно делает вычисления на бумаге, или аббаке, как распространено на Востоке. Феноменальные счетчики применяют разные приемы, как процедурные, так и ассоциативные, включая визуальные. Но у всего есть предел. Для очень больших чисел придется брать карандаш и бумагу.


Интересный вопрос. Можно ли реализовать такие процедуры в ЯМ? Трансформеры прямые сети во время обучения. Однако во время работы они перезапускаются (авторегрессивны), т.е. обладают рекуррентностью на глобальном уровне. Можно как-то преодолеть этот разрыв? Мозг человека, в первом приближении, состоит из иерархически организованных реккурентных сетей. Эти сети способны создавать аттракторы — устойчивые динамические состояния, которые являются основой памяти и сложного поведения. Никакой информации на этот счет пока не встречал.


Теоретически и сильный ИИ..

Не ерничайте, можно)


Эти два высказывания противоречат друг другу. Люди несут пургу.

Опасность не в пурге. Вы написали, что он может все и быть лучше человека. Это опасно. Может вылиться в конкурирующий вид. Известно к чему это может приводить на примере самого H.Sap. Исчезновению других видов, тех же неандертальцев, и целых цивилизаций, тех же в Ю. Америке при колонизации, и др. Риск имеется.

Чтобы понять аппроксимирующие возможности этой архитектуры

Ну так кому это нужно? Кто готов за это платить? И даже если, то зачем делать результаты общедоступными?


Вы написали, что он может все и быть лучше человека

Где я такое писал?


Это опасно. Может вылиться в конкурирующий вид.

А это вообще здесь причём?

Где я такое писал?

А это вообще здесь причём?

Это такая возможная перспектива, которую не стоит недооценивать, сами писали


Людям дали побаловаться с чатботом. А люди хотят чтобы он мог всё и лучше любого человека. Очень естественные ожидания...

Впрочем, и переоценивать тоже. По крайней мере в виде ЯМ)

Это такая возможная перспектива, которую не стоит недооценивать, сами писали

Где я писал что он может всё?

«уровень достоверности 99,99%»
Возможно, вы слышали про ложку дёгтя в бочке мёда. Это даже если просто считать, что уровень достоверности считается от достоверных данных.

Это я понимаю. Но давайте забудем про ИИ и вы скажите мне где сейчас можно получить действительно достоверные ответы?

При такой формулировке вопроса первым делом нужно определить критерии достоверности. Вторым делом — определить контекст. Один и тот же ответ в разном контексте может менять смысл вплоть до противоположного. Третьим делом — определить мотивацию и профессиональный уровень отвечающего. Например, он может и знать правильный ответ — но соврёт вам специально, потому что это больше соответствует его личным интересам. Четвёртым делом — определить способы тестирования полученного ответа на достоверность, а также связанные с этим риски.

А что мешает поступать примерно так же и в отношении ИИ? Почему от ИИ вдруг ожидается что он будет выдавать достоверные ответы "сам по себе"?

Кто ожидает? Я не ожидаю. Если человек/ИИ не врёт — это ещё не значит, что он говорит правду/достоверную информацию. Он может искренне заблуждаться относительно природы вещей.

Ну вон там выше жалуются что ИИ не знает точного ответа и что она иногда "фантазирует". На мой взгляд это не особая проблема потому что это точно так же справедливо и в отношении кучи других источников, которыми мы регулярно пользуемся.

Но мы можем оценить беспристрастность этих источников и сделать соответствующие поправки. А ГПТ — нет, у него чем больше мух, тем больше правды.

А вот это уже вопрос того как и/или на каких источниках вы тренируете ИИ.


То есть естественно ИИ, как минимум пока, сам не может оценить беспристрастность источников. Но вы можете сделать это за него.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории