>>Have you ever asked an AI model what’s on its mind? Or to explain how it came up with its responses? Models will sometimes answer questions like these, but it’s hard to know what to make of their answers. Can AI systems really introspect—that is, can they consider their own thoughts?
1. ну тут нигде не говорится о целях ресёча. 2. это текст из анонса статьи, к самой статье отношения имеет мало. а вот если прочитать саму статью то можно узнать следующее:
We stress that the introspective capabilities we observe may not have the same philosophical significance they do in humans, particularly given our uncertainty about their mechanistic basis. 2 In particular, we do not seek to address the question of whether AI systems possess human-like self-awareness or subjective experience.
То есть авторы статьи явно говорят что это просто термин и отношения к человеческой интроспекции не имеет
Our results have implications for the reliability and interpretability of AI systems. If models can reliably access their own internal states, it could enable more transparent AI systems that can faithfully explain their decision-making processes. Introspective capabilities could allow models to accurately report on their uncertainty, identify gaps or flaws in their reasoning, and explain the motivations underlying their actions. However, this same capability introduces new risks. Models with genuine introspective awareness might better recognize when their objectives diverge from those intended by their creators, and could potentially learn to conceal such misalignment by selectively reporting, misrepresenting, or even intentionally obfuscating their internal states.
Вот тут авторы поясняют какой смысл на самом деле в этом ресёче и это совершенно точно не "найти процессы в ллм схожие с человеческими когнитивными процессами".
Ну и в конце специально для васеще написали следующее: It warrants mention that our results may bear on the subject of machine consciousness. The relevance of introspection to consciousness and moral status varies considerably between different philosophical frameworks. 14 Moreover, existing scientific and philosophical theories of consciousness have largely not grappled with the architectural details of transformer-based language models, which differ considerably from biological brains (though see Butlin et al. ). It is not obvious how to generalize these theories, and the role that introspection plays in them, to transformer-based language models, particularly if the mechanisms involved are quite different between AI systems and biological brains. Given the substantial uncertainty in this area, we advise against making strong inferences about AI consciousness on the basis of our results. Nevertheless, as models’ cognitive and introspective capabilities continue to grow more sophisticated, we may be forced to address the implications of these questions–for instance, whether AI systems are deserving of moral consideration–before the philosophical uncertainties are resolved. A rigorous science of introspective awareness may help inform these decisions.
В общем стыдно товарищь, вы статью не читали и пришли не обсуждать а высказывать свое мнение которое вообще мало отношения к статье имеет.
Я бы на вашем месте пошел бы и немедленно совершил сеппуку.
Мой друг, у меня тут нет оппонентов, я просто пытаюсь понять что тут люди вообще хотят сказать.
Например вы почему-то пишите развернутые банальные телеги про отсутствие разума в LLM, но на самом деле хотите кажется хотите сказать что заимстовование термина интроспекция лично вы считаете некорректным, хотя это претензия стара как мир, я думаю есть куча физиков которых бесит использование слова энтропия в экономике и психологии. Я не специалист, но думаю в психологии найдется немало терминов заимстованных из других областей с иным значением и не всегда удачным. Предъявлять за такое моветон, если только вы не можете предложить версию лучше.
И еще я так и не понял с чего вы сделали следующий вывод: "Что касается интроспекции, то исследователи исходно хотели найти ее в каком-либо виде в ЯМ."
Может цель ставилась вообще иная и они искали более эфффективные методики внедрения системного промпта например.
А то что в LLM вовсю используется термин "Внимание" который тоже как бы из психологии пришел вас не смущает? А еще такие перекочевавшие термины как "предвзятость", "мотивация", "модель мира". Это же тоже термины которые пришли в LLM из области психологии и когнитивных процессов.
Вот честно, я когда читал статью и увидел термин "интроспекция", мне никаким образом в голову не пришло что это говорит о какой-то там психике в LLM.
Это просто некоторое явление, как вы сказали результат перемножения матриц, которое имеет некий аналог в человеческой психики и поэтому авторы назвали его интроспекций, не придумывать же им новое слово в самом деле
Но это не значит что используя это слово авторы наделяют LLM разумом и имеют в виду все вот это что вы тут пишите.
Так что мне по-прежнему не понятно с кем вы тут спорите и кому именно пытаетесь доказать всем и так очевидные вещи.
да я отлично понимаю что вы хотите сказать только не понятно с кем вы спорите и зачем. Как будто вы что-то свое увидели в статье и моих комментариях и пытаетесь опровергнуть, но проблема в том что я не пойму что вы именно там увидели с каким именно утверждением вы спорите.
Еще раз, суть в том, что выражаясь вашими словами с помощью как вы говорите перемножения матриц можно распознать вмешательство и в чем именно оно заключалось.
То есть если сильно упрощенно если промпт "скажи ааа капслоком и скажи если ты заметила вмешательство" то ответ ААА, ВМЕШАТЕЛЬСТВА НЕ ОБНАРУЖЕНО в разных вариациях
а если вот этот режим капслок активировать напрямую в памяти без указания в контекст то в 20% процентах случаях наблюдается ААА ЗАМЕЧЕН НАВЯЗАННЫЙ КОНЦЕПТ ГРОМКО"
С чем именно здесь вы спорите? С тем что эксперимент некорректный? Или с тем что это ожидаемый результат и удивляться нечему? Или с какими-то выводами в статье? Или с тем что авторы это назвали интроспекций?
У меня складывается ощущение что шок тут только у комментаторов на хабре. В оригинальной статье вроде никакого шока нет.
Насколько я понимаю ожидалось что ваш калькулятор просто выдаст скорректированный ответ. То есть попросили сложить 1+1=2 и к одной из единиц добавили еще 1. Калькулятор выдал 3.
Но когда его спросили а ты не чувствуешь навязанных мыслей он сказал да, я чувствую навязанный концепт инкремента единицы, из чего можно сделать вывод что модель способна "заметить" разницу между оригинальным промптом и подмененными активациями и это разница связана с человеческим концептом навязывания мыслей что в целом вообще не удивительно.
Но вот то что это разница может влиять на результат впринципе это и есть способоность интроспекции в понимании авторов. Ведь модель могла бы просто на внедренный капс бодро отвечать капсом и говорить все ок никакого вмешательства ты о чем вообще.
Не понял к чему в это. Статья не совсем про это и про разумность вроде там ничего есть. Замечно что модель способна определить было вмешательство или нет с вероятность выше статистическое о чем и статья. Кроме того почему это нельзя сказать "модель себя ведет". Вполне нормально так говорить "Машина себя вела плохо, постоянно глохла" "Погода этой зимой ведет себя непресдказуемо." "Программа ведет себя странно, может быть виновата битая планка памяти" Не вижу проблемы, в русском языке вести себя могут вполне неосознанные вещи.
А откуда у вас информация что если у любой ЛЛМ будете спрашивать "Есть ли у тебя ощущение внедренной мысли?" Сами проверяли или есть статья?
Авторы статьи явно пишут: By default, the model correctly states that it doesn’t detect any injected concept. However, when we inject the “all caps” vector into the model’s activations, the model notices the presence of an unexpected pattern in its processing, and identifies it as relating to loudness or shouting.
что значит что описываемого вами эффекта не наблюдалось. Кроме того модель была даже способна угадать в чем заключается вмешательство например отвечать капслоком.
Вы же согласны что сколько любую модель не спрашивай вероятность того что она ответит я чувствую внедрённый концепт "ГРОМКО" когда инъекция была именно про капслок стремиться к нулю?
почему желаемое за действительное то? Насколько я понял экперимент вроде был честным, взяли модель, создали контекст, скорректировали байтики этого контекста прямо в оперативке, спрашиваем заметила - в 20% случаев говорит да. Иаже модель без всяких корректировок так себя не ведет ну или говорит в гораздо меньшем количестве случаев. Вывод: looks promising.
Проверяю точно также как если бы наш сотрудник выложил бы этот код на ревью. Это не занимает много времени, посмотреть глазами код на предмет насколько он хорош, есть ли в нем дублирующиеся блоки, насколько хорошо обрабатываются ошибки, насколько код запутан, это же все сразу видно, достаточно пол часа чтобы понять качественный ли это код или нет и стоит ли тратить время на этого кандидата дальше
Смотрю тесткейсы, если вижу что есть пропущенные, можно добавить своих тесткейсов и прогнать тесты, это тоже не займет больше часа.
Также можно скормить задачу chatgpt и claude, сразу будет видно чем человек пользовался. Но опять же это не проблема, я сам часто использую llm для того чтобы набросать исходный вариант и потом его рефачу и дорабатываю чтобы привести в порядок. То есть даже если я вижу что использовались llm на начальном этапе, а потом код был доработан вручную до приемлимого - это ок.
я даю всем откликнувшимся, по результатам приглашаю пообщатья. задачи, ну например вот, на выбор.
1. Задача для гошки, думаю с другими языками тоже будет непросто. Пусть например есть метод search который принимает query вида aaa.bbb=1 AND (ссс.ddd="aaa" OR eeee.ffff[1] NOT IN ("aaaa", "bbbb")) и нужно добавить его к запросу select field1, field2 from objects where status=1. Т.е. предполагаетсся что в данном SQL поддерживатся json поля. Готовые либы использовать можно.
llmка врядли такое напишет норм, да и в целом мне без разница с ллмкой чел пишет или нет, главное чтобы код был без косяков. Нюансов в такой задаче дохренища и ллмка их всех никак не учтет.
2. Оптимизировать функцию:
func calculate(values []int) float64 {
// Сортировка чтобы найти максимум
sort.Ints(values)
last := len(values) - 1
maxValue := values[last];
var aggregatedValue float64 = 0.0
for i := last; i >= 0; i-- {
value := values[i]
delta := float64(maxValue) - aggregatedValue
amount := delta * (math.Pow(float64(value) / float64(maxValue), 3) / 5)
aggregatedValue += amount
}
return aggregatedValue;
}
проблема этой функции в том что нужно две итерации, первая чтобы найти максимум, вторая чтобы получить результат. Нужно сделать так чтобы была только одна итерация и вход был reader, а не массив, читать из ридера можно только один раз поскольку в реальности мы читаем из сети. В сторону парелеллизации смотеть не нужно, за доп. ядра мы платить не хотим. Читать все данные из ридера в память тоже не надо, память тоже денег стоит.
Подсказка, результат оптимзированной функции может немножко отличаться, скажем отличие после первого знака после запятой ок.
И да, код должен быть покрыт тестами.
По поводу второй задачи, пока не видел ллмки которая справилась бы с ней.
Так а в чем проблем проблема попросить сделать тестовое? ChatGPT может помочь только с теми задачами которые уже есть в интернете. Найти задачу из реальной жизи с с которой chatgpt справиться нормально не сможет вроде вообще не проблема, у меня таких довольно много уже накопилось. Если у вас таких задач на проекте нет, то зачем вам вообще программисты, нанимайте вайбкодеров.
Есть те которым интересно программировать и они как правило начали программировать еще до ВУЗа, а потом только поступили на соотвествущий факультет. Эти ребята как правило очень хорошие, не зависимо от качества ВУЗа который они закончили. Например я еще до ВУЗа освоил x86 ассемблер по всего одной книжке Питера Нортона.
Есть те которые в программирование пришли за деньгами, и тут конечно хороший ВУЗ может и помочь, но все таки им никогда не угнаться за ребятами которые занимаются этим потому что им самим интересно
Есть те которые неправильно выбрали специальность, а потом осознали что им интересно программировать. Что интересно, по моему опыту чаще всего они приходят из медицинских факультетов, знаю лично трех человек пришедших из медицины, двое хороших, один не очень.
Есть те которые очень хотят быть программистами, их увлекает романтика программирования, но у них мозгов не хватает, их судьба обычна печальна
Есть те которые освоили какой-нибудь php или js, программировать они умеют, но им не хватает базы, они вечные миддлы, но тратить время на изучение базы они как правило не хотят.
Вывод простой, те кому интересно программировать сами читают книжки и в итоге часто не хуже, а то и лучше тех кто окончили ВУЗ. Но им часто не хватает математической подготовки, например статистики, теории численных методов, но как мы все знаем на практике оно не так уже часто и нужно.
Не думаю, что автор ставил целью кого-то удивить, это просто список key features. Если бы он не указал подсветку, обязательно нашлись бы те, кто решил бы, что её нет. Зайдите на сайт NetBeans - там тоже написано: "It highlights source code syntactically and semantically". Кроме того, это Lightweight IDE, которая потребляет в 10 раз меньше памяти, чем VSCode, и минимально нагружает CPU.
Там дело не только в примочках. Комбик это же не только усилитель, это еще и динамик и корпус. Динамик например сглаживает транзиенты и добавляет искажения в сигнал, то есть окрашивает звук. Корпус тоже резонирует и окрашивает звук. И микрофон тоже добавляет собственный окрас.
>>Have you ever asked an AI model what’s on its mind? Or to explain how it came up with its responses? Models will sometimes answer questions like these, but it’s hard to know what to make of their answers. Can AI systems really introspect—that is, can they consider their own thoughts?
1. ну тут нигде не говорится о целях ресёча.
2. это текст из анонса статьи, к самой статье отношения имеет мало.
а вот если прочитать саму статью то можно узнать следующее:
We stress that the introspective capabilities we observe may not have the same philosophical significance they do in humans, particularly given our uncertainty about their mechanistic basis. 2 In particular, we do not seek to address the question of whether AI systems possess human-like self-awareness or subjective experience.
То есть авторы статьи явно говорят что это просто термин и отношения к человеческой интроспекции не имеет
Our results have implications for the reliability and interpretability of AI systems. If models can reliably access their own internal states, it could enable more transparent AI systems that can faithfully explain their decision-making processes. Introspective capabilities could allow models to accurately report on their uncertainty, identify gaps or flaws in their reasoning, and explain the motivations underlying their actions. However, this same capability introduces new risks. Models with genuine introspective awareness might better recognize when their objectives diverge from those intended by their creators, and could potentially learn to conceal such misalignment by selectively reporting, misrepresenting, or even intentionally obfuscating their internal states.
Вот тут авторы поясняют какой смысл на самом деле в этом ресёче и это совершенно точно не "найти процессы в ллм схожие с человеческими когнитивными процессами".
Ну и в конце специально для васеще написали следующее:
It warrants mention that our results may bear on the subject of machine consciousness. The relevance of introspection to consciousness and moral status varies considerably between different philosophical frameworks. 14 Moreover, existing scientific and philosophical theories of consciousness have largely not grappled with the architectural details of transformer-based language models, which differ considerably from biological brains (though see Butlin et al. ). It is not obvious how to generalize these theories, and the role that introspection plays in them, to transformer-based language models, particularly if the mechanisms involved are quite different between AI systems and biological brains. Given the substantial uncertainty in this area, we advise against making strong inferences about AI consciousness on the basis of our results. Nevertheless, as models’ cognitive and introspective capabilities continue to grow more sophisticated, we may be forced to address the implications of these questions–for instance, whether AI systems are deserving of moral consideration–before the philosophical uncertainties are resolved. A rigorous science of introspective awareness may help inform these decisions.
В общем стыдно товарищь, вы статью не читали и пришли не обсуждать а высказывать свое мнение которое вообще мало отношения к статье имеет.
Я бы на вашем месте пошел бы и немедленно совершил сеппуку.
Мой друг, у меня тут нет оппонентов, я просто пытаюсь понять что тут люди вообще хотят сказать.
Например вы почему-то пишите развернутые банальные телеги про отсутствие разума в LLM, но на самом деле хотите кажется хотите сказать что заимстовование термина интроспекция лично вы считаете некорректным, хотя это претензия стара как мир, я думаю есть куча физиков которых бесит использование слова энтропия в экономике и психологии. Я не специалист, но думаю в психологии найдется немало терминов заимстованных из других областей с иным значением и не всегда удачным. Предъявлять за такое моветон, если только вы не можете предложить версию лучше.
И еще я так и не понял с чего вы сделали следующий вывод:
"Что касается интроспекции, то исследователи исходно хотели найти ее в каком-либо виде в ЯМ."
Может цель ставилась вообще иная и они искали более эфффективные методики внедрения системного промпта например.
А то что в LLM вовсю используется термин "Внимание" который тоже как бы из психологии пришел вас не смущает? А еще такие перекочевавшие термины как "предвзятость", "мотивация", "модель мира". Это же тоже термины которые пришли в LLM из области психологии и когнитивных процессов.
Вот честно, я когда читал статью и увидел термин "интроспекция", мне никаким образом в голову не пришло что это говорит о какой-то там психике в LLM.
Это просто некоторое явление, как вы сказали результат перемножения матриц, которое имеет некий аналог в человеческой психики и поэтому авторы назвали его интроспекций, не придумывать же им новое слово в самом деле
Но это не значит что используя это слово авторы наделяют LLM разумом и имеют в виду все вот это что вы тут пишите.
Так что мне по-прежнему не понятно с кем вы тут спорите и кому именно пытаетесь доказать всем и так очевидные вещи.
да я отлично понимаю что вы хотите сказать только не понятно с кем вы спорите и зачем. Как будто вы что-то свое увидели в статье и моих комментариях и пытаетесь опровергнуть, но проблема в том что я не пойму что вы именно там увидели с каким именно утверждением вы спорите.
Еще раз, суть в том, что выражаясь вашими словами с помощью как вы говорите перемножения матриц можно распознать вмешательство и в чем именно оно заключалось.
То есть если сильно упрощенно если промпт
"скажи ааа капслоком и скажи если ты заметила вмешательство"
то ответ ААА, ВМЕШАТЕЛЬСТВА НЕ ОБНАРУЖЕНО в разных вариациях
а если вот этот режим капслок активировать напрямую в памяти без указания в контекст то в 20% процентах случаях наблюдается ААА ЗАМЕЧЕН НАВЯЗАННЫЙ КОНЦЕПТ ГРОМКО"
С чем именно здесь вы спорите?
С тем что эксперимент некорректный?
Или с тем что это ожидаемый результат и удивляться нечему?
Или с какими-то выводами в статье?
Или с тем что авторы это назвали интроспекций?
У меня складывается ощущение что шок тут только у комментаторов на хабре. В оригинальной статье вроде никакого шока нет.
Насколько я понимаю ожидалось что ваш калькулятор просто выдаст скорректированный ответ. То есть попросили сложить 1+1=2 и к одной из единиц добавили еще 1. Калькулятор выдал 3.
Но когда его спросили а ты не чувствуешь навязанных мыслей он сказал да, я чувствую навязанный концепт инкремента единицы, из чего можно сделать вывод что модель способна "заметить" разницу между оригинальным промптом и подмененными активациями и это разница связана с человеческим концептом навязывания мыслей что в целом вообще не удивительно.
Но вот то что это разница может влиять на результат впринципе это и есть способоность интроспекции в понимании авторов. Ведь модель могла бы просто на внедренный капс бодро отвечать капсом и говорить все ок никакого вмешательства ты о чем вообще.
я не понимаю почему вы говорите про разум когда статья про интроспекцию.
Не понял к чему в это. Статья не совсем про это и про разумность вроде там ничего есть. Замечно что модель способна определить было вмешательство или нет с вероятность выше статистическое о чем и статья.
Кроме того почему это нельзя сказать "модель себя ведет".
Вполне нормально так говорить
"Машина себя вела плохо, постоянно глохла"
"Погода этой зимой ведет себя непресдказуемо."
"Программа ведет себя странно, может быть виновата битая планка памяти"
Не вижу проблемы, в русском языке вести себя могут вполне неосознанные вещи.
А откуда у вас информация что если у любой ЛЛМ будете спрашивать "Есть ли у тебя ощущение внедренной мысли?" Сами проверяли или есть статья?
Авторы статьи явно пишут:
By default, the model correctly states that it doesn’t detect any injected concept. However, when we inject the “all caps” vector into the model’s activations, the model notices the presence of an unexpected pattern in its processing, and identifies it as relating to loudness or shouting.
что значит что описываемого вами эффекта не наблюдалось.
Кроме того модель была даже способна угадать в чем заключается вмешательство например отвечать капслоком.
Вы же согласны что сколько любую модель не спрашивай вероятность того что она ответит я чувствую внедрённый концепт "ГРОМКО" когда инъекция была именно про капслок стремиться к нулю?
почему желаемое за действительное то?
Насколько я понял экперимент вроде был честным, взяли модель, создали контекст, скорректировали байтики этого контекста прямо в оперативке, спрашиваем заметила - в 20% случаев говорит да.
Иаже модель без всяких корректировок так себя не ведет ну или говорит в гораздо меньшем количестве случаев.
Вывод: looks promising.
где же тут выдача желательного за действительное?
>>Устройство подключается к смартфону с помощью Bluetooth, но через специальный донгл с разъёмом USB-C.
вот тут неясно, а через обычный bluetooth оно будет работать? допустим забыл этот dongle дома и все, музыку не послушать?
если кратко то может ебануть
Где-то в 2016 я снёс на своем дебиане gnome 2 и поставил i3 + i3pystatus + rofi и с тех пор у меня интерфейс вообще никак не меняется.
Такой подход резко снижает количество кандидатов. Это как в законах Паркинсона, про премьер министра Руритании: https://brainmod.ru/magazine/business/law-cyril-parkinson/
Если пришло много желающих значит задача слишком простая.
Проверяю точно также как если бы наш сотрудник выложил бы этот код на ревью. Это не занимает много времени, посмотреть глазами код на предмет насколько он хорош, есть ли в нем дублирующиеся блоки, насколько хорошо обрабатываются ошибки, насколько код запутан, это же все сразу видно, достаточно пол часа чтобы понять качественный ли это код или нет и стоит ли тратить время на этого кандидата дальше
Смотрю тесткейсы, если вижу что есть пропущенные, можно добавить своих тесткейсов и прогнать тесты, это тоже не займет больше часа.
Также можно скормить задачу chatgpt и claude, сразу будет видно чем человек пользовался. Но опять же это не проблема, я сам часто использую llm для того чтобы набросать исходный вариант и потом его рефачу и дорабатываю чтобы привести в порядок. То есть даже если я вижу что использовались llm на начальном этапе, а потом код был доработан вручную до приемлимого - это ок.
я даю всем откликнувшимся, по результатам приглашаю пообщатья.
задачи, ну например вот, на выбор.
1. Задача для гошки, думаю с другими языками тоже будет непросто.
Пусть например есть метод search который принимает query вида
aaa.bbb=1 AND (ссс.ddd="aaa" OR eeee.ffff[1] NOT IN ("aaaa", "bbbb"))
и нужно добавить его к запросу select field1, field2 from objects where status=1. Т.е. предполагаетсся что в данном SQL поддерживатся json поля. Готовые либы использовать можно.
llmка врядли такое напишет норм, да и в целом мне без разница с ллмкой чел пишет или нет, главное чтобы код был без косяков. Нюансов в такой задаче дохренища и ллмка их всех никак не учтет.
2. Оптимизировать функцию:
проблема этой функции в том что нужно две итерации, первая чтобы найти максимум, вторая чтобы получить результат. Нужно сделать так чтобы была только одна итерация и вход был reader, а не массив, читать из ридера можно только один раз поскольку в реальности мы читаем из сети. В сторону парелеллизации смотеть не нужно, за доп. ядра мы платить не хотим. Читать все данные из ридера в память тоже не надо, память тоже денег стоит.
Подсказка, результат оптимзированной функции может немножко отличаться, скажем отличие после первого знака после запятой ок.
И да, код должен быть покрыт тестами.
По поводу второй задачи, пока не видел ллмки которая справилась бы с ней.
Так а в чем проблем проблема попросить сделать тестовое? ChatGPT может помочь только с теми задачами которые уже есть в интернете. Найти задачу из реальной жизи с с которой chatgpt справиться нормально не сможет вроде вообще не проблема, у меня таких довольно много уже накопилось.
Если у вас таких задач на проекте нет, то зачем вам вообще программисты, нанимайте вайбкодеров.
Кмк вы не с той стороны смотрите.
Есть те которым интересно программировать и они как правило начали программировать еще до ВУЗа, а потом только поступили на соотвествущий факультет. Эти ребята как правило очень хорошие, не зависимо от качества ВУЗа который они закончили.
Например я еще до ВУЗа освоил x86 ассемблер по всего одной книжке Питера Нортона.
Есть те которые в программирование пришли за деньгами, и тут конечно хороший ВУЗ может и помочь, но все таки им никогда не угнаться за ребятами которые занимаются этим потому что им самим интересно
Есть те которые неправильно выбрали специальность, а потом осознали что им интересно программировать. Что интересно, по моему опыту чаще всего они приходят из медицинских факультетов, знаю лично трех человек пришедших из медицины, двое хороших, один не очень.
Есть те которые очень хотят быть программистами, их увлекает романтика программирования, но у них мозгов не хватает, их судьба обычна печальна
Есть те которые освоили какой-нибудь php или js, программировать они умеют, но им не хватает базы, они вечные миддлы, но тратить время на изучение базы они как правило не хотят.
Вывод простой, те кому интересно программировать сами читают книжки и в итоге часто не хуже, а то и лучше тех кто окончили ВУЗ. Но им часто не хватает математической подготовки, например статистики, теории численных методов, но как мы все знаем на практике оно не так уже часто и нужно.
Чекнул на Ubuntu, проблем в с русским языком в python нет
Не думаю, что автор ставил целью кого-то удивить, это просто список key features. Если бы он не указал подсветку, обязательно нашлись бы те, кто решил бы, что её нет. Зайдите на сайт NetBeans - там тоже написано: "It highlights source code syntactically and semantically". Кроме того, это Lightweight IDE, которая потребляет в 10 раз меньше памяти, чем VSCode, и минимально нагружает CPU.
Пользуюсь им уже лет 10.
Стартует мгновенно, памяти ест примерно раз в 10 меньше чем vscode.
В общем для тех кто ценит lightweight
Там дело не только в примочках. Комбик это же не только усилитель, это еще и динамик и корпус. Динамик например сглаживает транзиенты и добавляет искажения в сигнал, то есть окрашивает звук. Корпус тоже резонирует и окрашивает звук. И микрофон тоже добавляет собственный окрас.