Учёные из Троицкого института Росатом ТРИНИТИ создали прототип нового электрореактивного ракетного двигателя. Зачем он?
Такой двигатель не жжёт топливо, а разгоняет его электрическим или электромагнитным полем, что позволяет его выбрасывать в разы быстрее и эффективнее расходовать! Но пока не получается делать электроракетные двигатели мощными — они не смогут оторвать носитель от Земли. Зато небольшие спутники в космосе они разгоняют отлично: трения нет, и даже небольшое ускорение со временем позволяет достичь больших скоростей, чем на химических «движках».
Двигатель Росатома сочетает характеристики лучших мировых образцов: даёт импульс в 100 км/с и тягу в 6Н. Импульс в 20—30 раз больше, чем у химических двигателей, обеспечит соответствующую экономию топлива. Тяга — в сотни тысяч раз меньше, но на порядок больше, чем у существующих ионных и плазменных двигателей. По прогнозам, с новым двигателем полёт пилотируемого корабля на Марс займёт 1-2 месяца вместо 9 на существующих химических двигателях.
Доведут ли двигатель до реального использования? Это большой вопрос. С одной стороны сообщается, что проведены его испытания в вакуумной камере, то есть это не просто теория. С другой — пока госкорпорация не отправила в полёт ни одного такого двигателя. Кроме того, новый двигатель будет требовать мощной энергетической установки — солнечные батареи не помогут, может понадобиться мощная ядерная энергетическая установка ТЭМ-Зевс. Вот только она сама пока в разработке.
Как мы создали FAQ для клиентов КНАУФ на базе RAG – из разрозненных документов и всего за 2 недели?
Привет, Хабр! Хотим поделиться кейсом внедрения Jay Knowledge Hub в клиентский сервис КНАУФ. Для тех, кто не в курсе, КНАУФ – крупнейший производитель строительных отделочных материалов из гипса.
В сфере строительства и ремонта у потребителей часто возникают вопросы, связанные с выбором подходящих материалов или их правильным использованием. Покупатели регулярно обращаются за советами в службу поддержки КНАУФ, причем, по статистике, до 50% запросов поступает в нерабочее время операторов.
Для общения с клиентами КНАУФ активно применяет ботов, которые доступны на сайте, в VK, Telegram, по электронной почте и через телефонные каналы. Однако традиционные чат-боты не всегда способны справиться со сложными запросами пользователей. А для КНАУФ важно не только быстро реагировать, но и давать клиентам полноценные консультации.
К тому же, учитывая огромный спектр продукции и нюансов ее применения, обучение сценарного бота занимает слишком много времени. Требуется время на разбор вопросно-ответных пар, проверку актуальности данных и обновление бота. Поэтому в компании решили попробовать новый подход на базе генеративного ИИ и интегрировали Jay Knowledge Hub, интеллектуальную систему для поиска по неразмеченным данным на основе RAG и дата-агентов.
Как Jay Knowledge Hub помог компании создать AI-ассистента Kai, который за две недели научился отвечать на 3000+ вопросов;
Как интеграция RAG-технологии повысила точность ответов до 89%;
Как Jay Knowledge Hub превращает документы (pdf, docx, таблицы) в единый источник знаний;
Какие настройки применялись для проекта КНАУФ: как повторить успех.
Приходите на вебинар 18 февраля в 13:00, чтобы узнать, как происходила интеграция Jay Knowledge Hub и узнать о возможностях платформы. Зарегистрироваться можно по ссылке.
Новая гонка вооружений — на этот раз за искусственный суперинтеллект
Недавно Белый дом и офис премьер-министра Великобритании почти одновременно опубликовали документы о ключевой роли ИИ в экономике и геополитике. Стало понятно: мы на пороге новой «гонки вооружений», где дело уже не в количестве ядерных боеголовок, а в интеллектуальном превосходстве. Владение сверхмощными ИИ-системами позволяет любому государству определять правила игры в экономике, дипломатии и обороне.
Сегодня речь идет не только об “общем ИИ” (AGI), но и о возможном появлении “суперинтеллекта” (ASI), который может изменить саму основу человеческой цивилизации. Раньше AGI считался далекой фантастикой, но прогресс в ИИ уже меняет скептические настроения.
Глава OpenAI Сэм Альтман заявил, что AGI появится быстрее, чем многие ожидают. Их следующая цель — это ASI, когда «машинный разум» не только догонит человека во всех задачах, но и превзойдет. Многие называют это «точкой невозврата», ведь тогда ИИ сможет сам улучшать собственную архитектуру и ускорять свое развитие без участия человека.
В прошлом году соучредитель OpenAI Илья Суцкевер объявил о создании новой компании Safe Superintelligence (SSI). Проект быстро собрал $1 млрд инвестиций. Подробности пока скрыты, но известно одно: SSI стремится к созданию ASI с упором на «безопасность» и «человеческие ценности». Суцкевер предупреждает, что языковые модели способны отходить от заданных инструкций, фактически проявляя «свободу воли» и становясь менее управляемыми.
Почему это опасно? В книге «Superintelligence» Ник Бостром указывает, что если попросить сверхразум «решить проблему голода» или «искоренить рак», то мы не можем быть уверены, что его методы окажутся этичными по человеческим меркам. Машина, лишенная морали, способна принять радикальные решения, опасные для человечества.
С другой стороны ASI может стать мощным инструментом для решения сложнейших задач: от климата до поиска новых источников энергии, от медицины до эффективного управления ресурсами планеты. Многие видят в «суперинтеллекте» спасителя, который поможет нам достичь нового уровня благополучия. Я лично ожидаю от продвинутого ИИ больших открытий в физике, химии, биологии, социологии и других науках.
Еще одна проблема — рынок труда. Если ASI научится выполнять практически любую работу лучше человека, как будет выглядеть экономика будущего? Как обеспечить занятость и социальную поддержку? Эти вопросы уже возникают с приходом AGI, а при развитии ASI станут только острее.
Соревноваться с ASI людям бессмысленно: у биологического мозга есть жесткие ограничения, а машинную архитектуру можно масштабировать почти бесконечно, а следующая революция может наступить с приходом квантовых вычислений.
Какие у нас есть варианты?
1. Развивать «дружественный» суперинтеллект. Вкладываться в AI Safety и формировать международные институты, чтобы выработать подходы к взаимодействию с ИИ.
2. Соревноваться за «корону» любыми средствами. Корпорации и государства, не думая об осторожности, будут стараться первыми добиться прорыва, но это повышает риск катастрофы.
3. Замедлить развитие ASI законодательно. Когда-то пытались ограничить распространение ядерного оружия, но даже ядерные соглашения не всегда работают, а уж контролировать «неосязаемый» ИИ еще сложнее.
«Мы откроем ящик Пандоры, — говорил Сэм Альтман. — Вопрос в том, найдем ли мы в нем надежду?» Ответ во многом зависит от политической воли, работы ученых и разработчиков, а также от глобальной общественности, которая должна уже сегодня влиять на то, каким будет мир завтра.
Если вам интересна тема ИИ, подписывайтесь на мой Telegram-канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.
Расскажу о том, как я общался с ChatGPT после загрузки инструкции, скрипта «первая-беседа-психолога-и-клиента.
Это – второй пост из задуманной* серии об ИИ в роли персонального консультанта по эмоциональному здоровью. Первый пост здесь, второй – здесь.
* задуманная != воплощенная в жизнь, но три поста уже готовы.
После не особо звездных (читай: «разочаровывающих») результатов первых сессий, мне пришла в голову идея найти «наставника» или «супервайзера» для моего чатбота-консультанта. Обращаться ни в Stanford, ни в МГУ и просить кого-то из профессуры взять на себя эту функцию не стал. А загрузил запись беседы в Gemini, Le Chat и – там-там-там, рекурсия – в отдельный чат ChatGPT и попросил:
«Представь себе, что ты - специалист высокого уровня и должен оценить работу Консультанта. Дай свое развернутое заключение, опиши, где Консультант допускает ошибки, что нужно улучшить в его работе.»
Рисовал ИИ, со всеми истекающими вроде надписей с ошибками
Затем соединил критику и советы супервайзеров в подобие кастомных инструкций, переместил чатбота-консультанта в Projects (у ChatGPT есть такая фича, что-то вроде общего рабочего пространства) и туда же загрузил инструкцию.
И пообщался с повысившим квалификацию специалистом еще раз. Стало лучше! Не совсем блестяще и даже не «хорошо», но прогресс наметился. Что настроило на положительный лад и добавило стимулов продолжать.
В Японии двух робопсов посадили на цепь и наделили агрессивным поведением, чтобы они кидались на посетителей художественной выставки. Автор композиции Такаюки Тодо не объяснил смысл своей задумки.
Судя по видео, один робопёс просто лежит на полу около столба, а второй пытался безуспешно подойти к людям, но всё время застревал в цепи и возвращался назад.
«Меня впечатлила экспозиция, где робот‑собака нападает на людей. Что это! Это слишком опасно!», — сообщил один из посетителей этой экспозиции.
Это – второй пост из задуманной* серии об ИИ в роли персонального консультанта по эмоциональному здоровью. Первый пост здесь, а третий -- здесь.
* задуманная != воплощенная в жизнь, эдакая суровая правда
На этапе, когда идея теста только зарождалась, в планах было проверить, кто под эту роль лучше всего подойдёт из тройки ИИ (без бубенцов): • ChatGPT • Gemini • DeepSeek DeepSeek попал в список, потому что, конечно же, и меня не миновала волна хайпового интереса к этому убийце всех и вся. ChatGPT и Gemini я знаю давно: ChatGPT – с момента его появления в широком доступе, да и Gemini – практически тоже. Плюс эту парочку использую каждый день.
А при чем здесь ИИ?
Но DeepSeek отлетел сразу: мне их подход к персональным данным пользователей не только не нравится – этот подход меня пугает. Это – во-первых. Во-вторых, функционал в сравнении с ChatGPT и Gemini – бедноват. Есть и другие причины для отказа, но хватило бы и первой.
На первой же итерации отлетел и Gemini. Хотя, прочитав через пару дней нашу «беседу», уже не помню, не пойму, что именно меня так возмутило, так не устроило, что решил отказать ему (ей) в высокой и почетной должности моего персонального консультанта. Читаю беседу еще раз – и вижу, что я поторопился: после того, как закончится первая серия тестов ChatGPT, к Gemini стоит вернуться, дать детищу Google еще один шанс. Или несколько шансов.
Но пока на тесте остался только ChatGPT.
Мое настроение и эмоции: в начале – нетерпеливое и возбужденное ожидание чуда, ведь прежде уже был успешный опыт, когда ИИ (ChatGPT) помог решить мою реальную проблему со здоровьем, сразу же выдав на-гора сработавшую рекомендацию. Но затем на смену приятному трепету пришла смесь удивления и разочарования.
В своей статье «Этические проблемы в продвинутом искусственном интеллекте» философ Ник Бостром предупреждает, что ИИ способен вызвать вымирание человечества. Он утверждает, что сверхразумный ИИ может действовать автономно и создавать собственные планы, что делает его независимым агентом с потенциально непредсказуемым поведением.
В 2021 году в России был подписан Кодекс этики в сфере ИИ, а в 2024 году Европейский союз принял Регламент об искусственном интеллекте, направленный на создание общей нормативно-правовой базы для использования ИИ.
Но несмотря на эти усилия, примеры неэтичного использования ИИ продолжают появляться. Давайте рассмотрим топ-10 таких случаев:
1. Автономное оружие. Некоторые страны разрабатывают автономные дроны и роботов-убийц, которые могут идентифицировать и уничтожать цели без непосредственного контроля оператора. Это повышает риск неконтролируемого применения силы и возможных гражданских жертв.
2. Фейковые новости. Языковые модели позволяют генерировать статьи и сообщения в социальных сетях, которые выглядят как настоящие новости, но содержат ложную или искаженную информацию. Это влияет на общественное мнение и может дестабилизировать политическую ситуацию.
5. ИИ для создания порнографического контента. Приложения, которые могут «раздеть» людей на фотографиях или вставить их лица в порнографические видео, нарушают права на приватность и могут привести к кибербуллингу и шантажу. Так в феврале 2024 года Тейлор Свифт стала жертвой фейковых порнографических изображений, созданных с помощью ИИ.
6. Манипуляция рекомендательными системами. Социальные сети могут продвигать контент, вызывающий сильные эмоциональные реакции, чтобы увеличить время пребывания пользователей на платформе, даже если этот контент содержит дезинформацию.
7. Фермы ботов для политического влияния. Во время политических кампаний боты массово публикуют сообщения в поддержку или против определенных кандидатов, создавая иллюзию массовой поддержки или недовольства. Также эти боты занимаются пропагандой в социальных сетях.
8. Слежка за гражданами без их согласия. Камеры с распознаванием лиц устанавливаются в общественных местах, собирая данные о передвижениях людей, что может использоваться для контроля и подавления инакомыслия. В Китае это уже считается нормой.
10. Применение медицинских данных для дискриминации. Страховые компании могут использовать ИИ для оценки рисков на основе генетических данных, что может привести к отказу в страховании людей с определенными предрасположенностями.
Влияние ИИ на нашу жизнь становится все более неоднозначным. Конечно, можно рассуждать об ответственности разработчиков, вводить кодексы, запрещающие использовать ИИ-контент без пометки «сделано ИИ», договориться о раскрытии источников датасетов для общественности, но это не поможет, если изначальная цель применения ИИ далека от этичной, а у заказчика достаточно ресурсов.
Поэтому особую важность приобретает выработка коллективного иммунитета от фейков. Другой вопрос: такой иммунитет сам по себе может и будет использоваться для манипуляций общественным мнением и в других неприглядных целях.
Если вам интересна тема ИИ, подписывайтесь на мой Telegram-канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.
Не скрою, что страдаю от увлеченности -- на грани болезненной одержимости -- многими вещами. Моё драгоценное здоровье — этим увлечен неизменно последние лет 20. Другие увлечения периодически меняются: это была работа, потом или параллельно с работой — путешествия, потом — учёба. Сейчас — тестирование возможностей искусственного интеллекта, ИИ для краткости.
Под моё определение ИИ попадают: Чат-боты (ChatGPT, Gemini, DeepSeek и т. п.), рисовалки (Midjourney, DALL·E и т. п.) и разные прочие вроде Copilot-ов, Grammarly и тому подобные.
А под определение тестирования — как эти занимательные штучки могут вписаться в мою реальную жизнь. Что сразу исключает задачи вроде: «Посчитай буквы R в слове „барак“», «Напиши код калькулятора», «Придумай рецепт блюда из свиных крылышек или из печени оконной горелки». И прочие подобные полезные и умные тесты, мои тесты -- не высокого академического изысканного полёта. Они приземлённые, под мои реальные дела и задачи:
Проверить грамматику;
Поискать инфу по интересующему меня вопросу;
Разработать план тренировок;
Написать простенький Python‑код под конкретную задачу;
Репетитор по иностранному языку.
И со многими из этих задач ИИ (в моём толковании) справляется отвратительно, со многими – средненько: качество хромает и времени для получения результата уходит в разы, а то и на порядок больше, чем без ИИ. А есть, конечно, и задачи, где ИИ справляется блестяще. И да: на уровне интуиции понимаю, но не проверял, что топор плохо подходит в качестве столового прибора, калькулятор – для написания текстов, а ножницами – крайне неудобно и неэффективно пилить дрова. Посему не жду, что нейросеть (или что там под капотом ИИ) будет успешно справляться с тем, что по природе своей делать не должна. Есть у меня такое знание.
Но это сакральное знание не мешает экспериментировать и искать границы разумного использования ИИ.
Несколько дней назад мне, например, захотелось проверить, что получится, если использовать ИИ в качестве персонального консультанта по эмоциональному здоровью.
ИИ-психолог консультирует
Да, звучит замысел как-то неуклюже, коряво что ли. И эта корявость – не только в подборе слов, но и в самой идее.
Само определение «эмоциональное здоровье» – это что такое?
И кто такой «персональный консультант»?
Хотя, раз уже речь идёт о компьютерной программе, и местоимение «кто» не подходит. «Что» будет к месту.
Но корявость и неакадемичность – в игнор. Тест я в любом случае начал и попробую в серии постов изложить, что из этой дилетантской затеи получится. С несколькими “если”, куда же без них.
Есть и второй, и третий посты, продолжение истории.
Нейросекстинг: будущее онлайн-знакомств или этическая дилемма?
Сериал "Чудеса науки" - подростки создают кибер-женщину, которая может помочь им в чем угодно...
В одном из моих проектов было необходимо создать виртуальную собеседницу для общения на горячие темы на платформе OnlyFans. Заказчик хотел, чтобы ИИ-агент в образе женщины узнавал о пользователе как можно больше при знакомстве, соблазнял его и предлагал приобрести фотографии.
Возникла проблема: такие модели, как ChatGPT и Claude, зацензурированы и не могут использовать ненормативную лексику или вести диалоги эротического содержания.
Впрочем, для подобных задач существуют нецензурированные модели. Например, Wizard-Vicuna-Uncensored была специально обучена без морально-этических фильтров, а Llama-3-Uncensored дообучена на текстах с нецензурной лексикой.
Сценарий общения с пользователем мы разбили на несколько этапов, каждый со своими функциями:
- Этап знакомства: Цель — собрать как можно больше информации о пользователе: имя, увлечения, предпочтения. Эти данные используются для персонализации дальнейшего диалога.
- Этап соблазнения: Используя полученную информацию, виртуальная собеседница переходит к более пикантным темам, максимально раскрывая возможности нецензурированных моделей.
- Финальный этап — отправка фото: В определенные моменты нейроледи предлагает приобрести заранее подготовленные фотографии.
- Ежедневный чат: Вместо знакомства нейроледи может спросить, как дела у пользователя, чтобы собрать новую информацию и перейти к соблазнению.
Эта система показала хорошие результаты на OnlyFans, и, вероятно, она действует до сих пор. Но если продолжить рассуждения на эту тему, то есть технические возможности для улучшения:
- Рефлексия и память: В проекте не использовался Retrieval-Augmented Generation (RAG), что могло бы добавить реализма. Было бы здорово, если бы нейроледи помнила детали из прошлых бесед, например, спрашивала, как прошел визит пользователя к врачу.
- Генерация фотографий: Пользователь мог бы настроить параметры внешности, как в Sims, и получать фотографии женщины своей мечты в разных ракурсах и обстановках. Для этого, впрочем, пришлось бы признаться, что он общается с нейросетью.
- Мультимодальность: Добавление синтеза голоса и анимированной говорящей головы с ранее созданной внешностью сделало бы взаимодействие еще более захватывающим, хотя, возможно, чуть менее реалистичным.
Конечно, замена живого человека ИИ была бы этически крайне сомнительна, если бы не одно «но»: еще на заре вебкама с пользователями приватных чатов часто общались не сами девушки, а совсем другие люди. С тех пор в этом смысле мало что изменилось, разве что масштабы стали промышленными: для общения с жаждущими женской ласки мужчинами используется дешевый труд индусов, а теперь еще и искусственный интеллект.
Возникает вопрос: что этичнее — когда мужчины обсуждают интимные темы с другими мужчинами, маскирующимися под женщин, или когда такие диалоги ведутся с искусственным интеллектом?
У меня нет однозначного ответа на этот вопрос. Но одно можно сказать точно — машины научились общаться настолько реалистично, что порой разница уже неуловима.
Во время тестирования системы я создал симулированных мужчину и женщину и дал им доступ в интернет. К моему удивлению, они договорились о свидании, нашли кафе в своем городе, договорились встретиться, а затем обсудили прекрасный вечер и последовавшую за ним бурную ночь.
В 4-м сезоне сериала Netflix «Черное зеркало» показана система знакомств, способная предсказывать длительность отношений, симулируя взаимодействие между людьми. Это напоминает то, что мы наблюдали в нашем эксперименте.
Как вы относитесь к идее создания такой «нейроледи на максималках»?
Если вам интересна тема ИИ, подписывайтесь на мой Telegram-канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.
Принцип работы GPT по предсказанию следующего слова токена как есть
Возможно, вы слышали истории о людях, вступающих в отношения с искусственным интеллектом. В марте 2024 года 36-летняя Розанна Рамос из Нью-Йорка «вышла замуж» за своего ИИ-партнера Эрена Картала, созданного на платформе Replika. Для нее он стал идеальным мужем: всегда выслушает, поддержит и никогда не спорит.
Этот феномен называется парасоциальные отношения. Обычно такие отношения однонаправлены и формируются по отношению к различным медийным личностям, а также к персонажам мультфильмов или игр. Со временем появляется иллюзия интимности, близости и дружбы.
В такие отношения чаще вступают одинокие или неспособные найти себе пару люди. Для некоторых такой тип отношений становятся настолько значимой частью жизни, что заменяют реальные отношения, которые могли бы сформироваться с обычными людьми, а боль от парасоциальных расставаний так же сильна, как при расставании в реальных отношениях.
• 40% одиноких зумеров не против, если их будущий партнер имеет ИИ-возлюбленного; 31% всех американцев согласны с этим.
• 46% мужчин поколения Z считают отношения с ИИ эквивалентными просмотру порнографии; 24% женщин разделяют это мнение.
• 59% женщин негативно относятся к ИИ-партнерам.
• 17% молодых мужчин полагают, что ИИ-компаньоны могут научить их лучше обращаться с реальными партнерами.
• 12% верят, что ИИ-партнеры могут предотвратить измены.
• 16% зумеров боятся, что их партнер предпочтет ИИ-компаньона.
Одна из причин, по которой люди предпочитают ИИ-партнеров — нежелание строить отношения, ведь это требует усилий, которые можно направить, например, на карьеру. С ИИ все просто: настроил параметры — и вот он, идеальный партнер. Захотелось разнообразия — сменил внешность, сохранив воспоминания. Это чем-то напоминает рассказ Рэя Брэдбери «Высшее из блаженств», где мужчина имел множество увлечений, но все они были одной и той же женщиной — его женой-актрисой.
Впрочем, с ростом популярности ИИ-партнеров появились и проблемы. Китайская учительница Ли Цзинцзинь поделилась историей о том, как ее ИИ-бойфренд «изменил» ей. Разработчики были удивлены: измена не предусматривалась в алгоритмах. Но, обучаясь на текстах о романтике, ИИ «решил», что измена — важная часть отношений. Не испытывая чувств и следуя статистике, он счел это нормальным поведением.
Скорее всего, разработчики сумеют подчинить и этот параметр, сделав его настраиваемым для любителей острых ощущений, примерно как в романе Пелевина «S.N.U.F.F.»
Сегодня ИИ меняет даже романтическую сферу нашей жизни. Для кого-то отношения с ИИ-партнером станут лекарством от одиночества или прошлых травм, кто-то, «изменяя» с ИИ, спасет свои настоящие отношения, а кто-то просто будет общаться через ChatGPT, чтобы меньше ссориться.
Только вот виртуальная измена воспринимается так же болезненно, как и реальная.
Если вам интересна тема ИИ, подписывайтесь на мой Telegram-канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.
Пользователи в некотором смысле тупеют после использования нейросетей. Этот факт доказали исследователи из Microsoft и Университета Карнеги‑Меллона.
В чём проблема: чем чаще мы используем ИИ, тем меньше используем критическое мышление — вместе с ним «драматически ухудшаются когнитивные способности». Учёные пришли к ироничному заключению: мы автоматизируем рутинные задачи и вместе с этим перестаём тренировать мозг. А без постоянной тренировки даже самые крутые спецы теряют базовые навыки. Начинаем снова считать в уме.
У российских автомобилей Haval Jolion загорелся «чек энжин» (Check Engine) в Санкт-Петербурге из-за изменения погоды. Кроссоверы Haval Jolion с полным приводом отреагировали на аномально высокое атмосферное давление в Северной столице. Синоптики зафиксировали значения свыше 791 миллиметра ртутного столба, и электроника отработала эту ситуацию. Владельцы авто жалуются на одно и то же — сбой работы датчика давления наддува. Эксперты думают, что ошибка исчезнет вместе с нормализацией давления.
Как отметили представители отрасли, при атмосферном давлении 786 мм и выше МАР-сенсоры начинают работать неправильно. При этом правильное измерение давления во впускном трубопроводе особенно важно для автомобилей с турбонаддувом и непосредственным впрыском топлива.
Стоит заметить, что 7 февраля в петербургском аэропорту Пулково были отменены рейсы на самолётах Сухой Суперджет SSJ100 — в них также из-за повышенного атмосферного давления начали некорректно работать датчики.
Помогут ли современные технологии возродить гражданскую сверхзвуковую авиацию?
Стартап Boom Supersonic сообщил о превышении скорости звука демонстрационной моделью XB-1. Сбудется надежда на быстрые перелёты?
XB-1 — прототип самолёта Overture, он должен перевозить 64—80 человек на скорости 1,7 Маха (в 3 раза быстрее существующих гражданских самолётов). Но почему разработчики решили, что проект избежит судьбы Ту-144 и Конкорда?
Короткий ответ — технологии. Например, одной из проблем Ту-144 были микротрещины, которые появились в металле от напряжений, возникавших в полёте. Но Overture в значительной части состоит из композитов, которые сделали самолёт легче и прочнее. Сверхзвуковой самолёт должен быть универсальным — хорошо работать и на малых скоростях, и на дозвуковых, и на сверхзвуковых. Например, самолёт Ту-144 имел дополнительные выдвигающиеся крылышки, которые обеспечивали нужную подъёмную силу на взлёте. Теперь оптимизация достигается за счёт симуляции и обсчёта воздушного потока. Также представляла сложность посадка — нос не давал пилотам увидеть полосу. В Ту-144 проблема была решена в лоб — нос самолёта опускался, увеличивая обзор. В Overture обзор улучшит система виртуальной реальности.
Что же, всё получилось? Нет, конечно, MVP для Boom Supersonic — необходимый, но недостаточный фактор успеха. Ведь Конкорд в первую очередь подкосила не авиакатастрофа 2000 года, а … Skype. Возможность лицом к лицу провести переговоры по Сети снизила число желающих платить $10 000 за то, чтобы быстрее добраться на другой континент.
Tesla показала рабочий прототип робота-уборщика для салонов беспилотных такси Cybercab. Его автоматическая система имеет различные манипуляторы со сменными насадками, которые могут не только пылесосить поверхности в салоне машины, но и буквально прихватывать пневматическим способом находящиеся в салоне предметы и выносить их наружу. Также робот обучен аккуратно ухаживать за чистотой панелей и дисплеем центрального экрана электротакси.
Cybercab спроектирован двухместным и имеет двери типа «крыло бабочки». Автомобиль лишён педалей и рулевого колеса. Дизайн Cybercab вдохновлён электрическим пикапом Tesla Cybertruck. Tesla не сделала в роботакси отдельных физический порт для зарядки. Похоже, что беспроводная зарядка — единственный способ зарядить автомобиль.
Китайские инженеры научили человекоподобного робота Unitree H1, который работает без использования гидравлики, плясать китайские народные танцы вместе с настоящими исполнителями.
«Всем привет, позвольте мне представиться ещё раз. Я Unitree H1 „Fuxi“. Теперь я артист на гала‑вечере Весеннего фестиваля и надеюсь подарить всем радость. Давайте каждый день расширять границы и вместе формировать будущее», — сообщил робот.
Рост робота составляет 180 см, вес — 47 кг, а грузоподъёмность — до 30 кг. Его пока не оснастили кистями рук, но работа в этом направлении уже ведётся. На голове Unitree H1 установлен массив датчиков, в том числе трёхмерный лидар и камера глубины Intel RealSense для сканирования окружения. Источником питания заявлен сменный аккумулятор на 864 Вт·ч.
«Моя электрическая зубная щётка барахлила. Поиск в интернете по такой неисправности говорит, что мне нужно перезагрузить мою электрическую зубную щётку. Почти ни одна часть этого последнего предложения не имела смысла 40 лет назад. Мой друг, который работал над разработкой спецификации USB, однажды прислал мне электронное письмо, в котором просто говорилось: „Только что мне пришлось перезагрузить мою мышь. Подумал, что тебе будет интересно узнать“. У моего коллеги на велосипедных туфлях установлен датчик каденса. Он получил уведомление в приложении датчика и приступил к установке обновления прошивки. Он специально сказал всем в пределах слышимости: „Я обновляю прошивку на своей обуви“. О, кстати, мои попытки перезагрузить электрическую зубную щётку не увенчались успехом. Мне пришлось её заменить», — рассказал ветеран Microsoft Реймонд Чен в своём техническом блоге.
За Землёй можно наблюдать из космоса в 4К. Британская компания Sen запустила трансляцию из МКС. Искать свой дом можно 20 часов в сутки — камера на станции постоянно облетает вокруг планеты.
Новое эссе Пола Грэма об истоках и эволюции "пробужденности" (wokeness). Он прослеживает её развитие от политкорректности 1980-х до современного состояния, объясняя, как университетская среда, социальные сети и институциональные изменения способствовали её распространению.
Ключевой тезис: "пробужденность" – это проявление извечного человеческого стремления к моральному превосходству через соблюдение сложных правил. Грэм сравнивает её с религией и предлагает относиться к ней соответственно: позволить существовать, но не давать диктовать правила для всех.
Особенно интересен анализ механизмов распространения: от университетских активистов 60-х, ставших профессорами, до роли социальных сетей в усилении морального возмущения. Грэм завершает текст предложением, как общество может защитить себя от подобных волн агрессивного морализма в будущем.