Как стать автором
Обновить
15
0
Вовчик @microcoder

Пользователь

Отправить сообщение

Вы привели плохой пример. Не учли, что код может иметь значительное количество отступа по причине вложенности if'ов, while'ов, for'ов и т.д., где писать строку на оставшихся символах затруднительно и не всегда читабельно. А еще надо найти место комментариям. Автор, который Вас поправил — я с ним полностью согласен, написал бы так же, как он указал.

В первом случае даже когда вы вызываете метод из класса FlameDaemon вызывается метод из класса Mage, что, очевидно, совсем не то, что ожидается

Вот это я не понял, почему не то, что ожидается? Ведь по MRO как раз таки то, что ожидается? Вы же self передаете в метод fire() объект Hooman, а MRO этого объекта = Hooman, Mage, FlameDaemon, builtins.object.


а во втором случае имена манглятся и пересечения нет.

Вот тут да, понятно стало. Спасибо за пример.

О чём и речь. Только не программист это решил, а гугл (автор).
> Мои реплики направлены не исключительно вам

Когда Вы обращаетесь ко мне не по теме (задаёте мне вопрос), с желанием унизить, то Вы обращаетесь ко мне, а не к участникам. Какую публичную дискуссию Вы хотите развязать обсуждая мои способности? Сплетни? Тщеславие? Это запрещено правилами Хабра.

Для этого есть личные сообщения. Можете там выразить своё несогласие и возможно я приму Ваши замечания.
> Вот и мне не требуется ничье согласие, чтобы обсуждать ваш вклад в эту дискуссию.

Можете. Но _НЕ_ со мною. Сейчас Вы ведете дискуссию со мною. Обращаетесь ко мне. Бессмысленно общаться со мною в том тоне, который я не приемлю.

Пишите сколько угодно, это Ваше право, я его не ораничиваю. Но когда Вы входите со своими словами ко мне, здесь уже работают мои правила. Будьте добры их соблюдать, если хотите, чтобы я Вам отвечал.
> и он тоже имеет право это обсудить

Может. Но не со мною и писать в мой адрес совершенно бесполезно. Я не отвечу на это. Сплетни я не приемлю и не поддерживаю. Надеюсь, что здесь адекватные люди и мы сможем продолжить беседу в рамках темы, а не моих личных качеств.

Хотите научить меня чему-то, обсудить мои личные качества — добро пожаловать в личные сообщения.
> И ваше согласие меня тоже не очень волнует

Я определяю правила общения со мною. Если Вас не устраивают мои личные качества — добро пожаловать в личные сообщения, а не играть в игру тщеславия на публике засоряя «эфир».

Я Вас не принимал в качестве своего учителя, Вы мне свою адевкатность не потдвердили — пришлите резюме для начала, являетесь ли Вы специалистом оценивать мои обороты речи и адекватность в целом. Затем я решу, стоит ли с Вами дальше общаться.

> Вам же никто не давал согласия на то, чтобы вы пришли сюда обсуждать катапульты?

Мне для этого не требуется ничьё согласие, так как я не нарушаю правила платформы, а также не обсуждаю публично качества участников дискуссии.

Это мои правила. Я их устанавливаю и определяю. Вы можете с ними быть не согласны, это Ваше право. На этом предлагаю завершить общение не по теме и не засорять «эфир».

Разумеется, поэтому в гугл есть свои стили, отличные от "публичных" (широко принятых). И не только в гугл.

Люди в основной массе не любят ответственность, а когда ты им об этом напоминаешь, да еще в уничижительной форме (сверху-вниз, как папка с ремнём) они злятся. Привыкай или ищи более мягкие фразы, сглаживай "углы" ;)

или могу продолжить обсуждать ваше поведение здесь, до тех пор пока это не противоречит правилам Хабра

Можете. Но я не даю на это согласие. Ваши попытки обращения в мой адрес будут игнорироваться. Всё что Вы сможете получить — это тщеславие перед другими участниками. Замечания — пожалуйста, если они конструктивные, не несут оскарбительного или уничижительного характера.

О том, каким ИИ будет в его следующей фазе развития, говорить достаточно сложно

Согласен. Поэтому вопрос по ИИ следует ограничить "сегодняшним" днём, в перспетиве год-два.

Во-первых, вы обратно вернули человеческий фактор

Не согласен, так как человеский фактор это всё таки принятие решения. Какое решение может принять бортпроводник? Он даёт информацию для того, кто в дальнейшем может принять решение, а может не принять и "человеческого фактора" не случится.


Во-вторых, вот доложил он ИИ, и что?

Многие типичные ситуации можно отработать по скрипту (по моему познанию в этой области). Производители лайнеров же как-то делают скрипты (чеклисты) как и в каких случаях что надо делать? Точно также можно заложить логику. Не обязательно это использовать исключительно в "блоке ИИ" Это может быть программно-аппаратный комплекс где и ИИ исполуезутся вместе с традиционным скриптовым программированием. Где на какую-то фразу отрабатывается "чеклист" и принимается решение.


Конкретно с важной информацией которую может предоставить бортпроводник обследуя внешние какие-то обстоятельства, которые могут повлиять на фатальный исход полёта и недоступны для анализа ИИ (допустим), то тут мне сложно сказать какое здесь может быть решение.

А это не переход на личности, это обсуждение вашего поведения в топике.

Я не открывал тему по обсуждению моего поведения. Вы не учитель, которого я нанял для самосовершенствания. Так же, Вы не подтвердили свой уровень, а действительно ли Вы правы и можете делать какие-то верные выводы по поводу моего поведения. Вы не администратор, не модератор и не платформа. А если таковым являетесь, можете применить свои меры согласно Вашим полномочиям и УБЕЖДЕНИЯМ.


Надеюсь я правильно донёс до Вас свое сообщение. Если есть желание продолжить общение по теме топика — ок, не проблема. Если Вам не нравится мое "поведение" согласно Вашим убеждениям, Вы свободный человек и можете покинуть эту ветку обсуждения и не заходить сюда.

Вероятность отказа все еще больше нуля

т.е. человек (экипаж), даже несмотря на грубые ошибки пилотирования, надёжнее роботов (в перспективе)? Вы это хотите сказать?


А как на счет исследования Boeing где причины катастроф с ошибкой пилотов доминирует?


ИИ их может значительно сократить при этом понимая, что заранее нельзя проверить какой вариант он выбирет для решения задачи? Или можно, но с отключенным вариантом обучения в полете (наверное так лучше будет, я не знаю). Но при этом же есть возхможность его "обучить" только в заданном направлении лучше (надёжнее, скоростнее в принятии решении) чем человека?

нужно для разрешения конфликта имён при множественном наследовании

Нужно кому? Python'у? Или программисту? Почему он для разрешения имен не может использовать другие символы? Что-то я тут не понял. Можете привести простой пример с таким наследованием?

Вы либо вообще не представляете что такое ИИ. Либо просто тролите. 110 ваших сообщений в посте намекают на второе.

Вы можете не переходить на личность, так как мне это не нравится, и оставаться в рамках адекватности, не оценивать мои познания, а отвечать конструктивно? Ибо я не хочу обсуждать с Вами ваши "диагнозы" обо мне.


Можете вести обсуждение по существу? По теме?

Много ли шансов было бы у ИИ?

Конечно, я допускаю, что есть исключительные ситуации, пример уже привели. Но у меня нет ответа на этот вопрос, поэтому я его здесь задаю. Может у кого-то есть ответ?


Вы вспомнили 2 случая грубой ошибки экипажа

Ну конечно, мне не доступны детали других штатных или нештатных ситуаций. Просто взял яркие, что были на моей памяти из публичных источников. Я не стремился сделать анализ и выводы только по ним. Это была лишь ссылка на "человеческий фактор".

движимымые элементы точка отказа.

Хорошо. Сажаем двух роботов.

Информация

В рейтинге
Не участвует
Откуда
Москва и Московская обл., Россия
Дата рождения
Зарегистрирован
Активность