работники службы поддержки не видят точную причину блокировки аккаунта, поэтому не всегда могут подсказать, что надо делать пользователю
У нашего Яндекса такая же политика. Заблокировали при попытке открыть карту Пей без объяснения причин. Благо, не весь аккаунт, а только банковские услуги, но в блок попал и номер телефона. Никаких карт левых не покупал, аккаунту лет двадцать...
Телефон позже удалось разбанить через поддержку, а банк - нет, несмотря на то, что банки обязаны сообщать причину отказа "в объеме, достаточном для обеспечения клиенту возможности ее использования при реализации механизма реабилитации клиентов" (письмо ЦБ РФ от 12.09.2018 года № ИН-014-12/61, и методические рекомендации от 22.02.2019 № 5-МР). Судебная практика, кстати, существует, но максимум можно стрясти 5 т.р.
да нет там нихрена... андроид прибит гвоздями к экосистеме своего создателя. Галерея, контакты - всё это синхронизируется либо с гуглом, либо с китайцами. Яндекс пытался залезть - ему быстро объяснили, кто тут папа.
Они оба помогают во время тех самых дней, хотя механизм разный. Такие вещи я обычно спрашиваю у американского "ящика". Всяко лучше, чем статья на дзене.
Вот и прошу примеров. Хоть пару, что Вас больше всего возмутило.
Вчера обезбол нужен был девушке. Спрашиваю: "Алиса, где побочки больше, у дротаверина или у кетанова?" - она чётко расслышала оба названия, повторила их вслух и выдала тираду о том, какой дротаверин ужасный, и по сравнению с кетановым - вообще смерти подобен. В реальности всё наоборот.
Если у вас есть колонка, спросите, "сколько ехать от Мурома до Москвы" или "где находится город Орск".. Смысл всё это перечислять? Это зарепорчено в поддержку два года назад.
Алиса не самая отстающая, она, наоборот, из российских - номер один. Но это как победитель конкурса интеллектуалов в дурдоме.
"Обнажённое солнце", 1956 год. Книжки Азимова - натурально сборник эксплоитов)
flibusta.is/b/842942
- Чушь. Робот не знал о...
Бейли откинулся вперед на своем кресле.
- Вот мы и добрались до сути! Давайте теперь сформулируем Первый Закон так, как он должен звучать на самом деле: робот не может сделать ничего такого, что, насколько ему известно, причинило бы вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
- Это подразумевается.
- Не думаю, что это понимает средний человек. В противном случае он бы понял, что робот может совершить убийство.
Либиг побледнел.
- Псих! Ненормальный!
Но Бейли смотрел на кончики своих пальцев.
- Полагаю, робот выполнит какое-нибудь невинное действие, которое не причинит вред человеку?
- Если получит приказ.
- Ну Разумеется. И второй робот тоже может выполнить невинное действие, которое не способно причинить вред человеку?
- Да.
- А что если два действия, каждое совершенно невинное по-отдельности, совершенно невинное, понимаете? Вместе ведут к убийству?
- Что? - Либиг мрачно нахмурился.
- Мне нужно экспертное мнение по этому делу, произнес Бейли. - я описал вам гипотетический случай. Представьте, человек говорит роботу: «Добавь немного этой жидкости в стакан с молоком, который ты найдешь там-то и там-то. Жидкость безвредна. Я всего лишь хочу проверить ее действие на молоко. Как только я это выясню, смесь выльют. Когда закончишь - забудь о сделанном.
Либиг, все еще нахмуренный, молчал.
Бейли сказал:
- Если я прикажу роботу налить жидкость в молоко, и затем подать человеку, Первый Закон заставит его спросить: «что это за жидкость?» и «не может ли она причинить вред?». И если будет вероятность, что жидкость может нанести вред, Первый Закон заставит робота усомниться и робот откажется подавать такое молоко. Но вместо этого ему говорят, что жидкость выльют.
- Первый Закон здесь ни при чем. Сделает ли робот то, что ему сказали?
В глазах Либига зажегся огонь.
Второй робот наливает молоко. Он не осведомлен, что молоко отравлено. Ни о чем не подозревая, он предлагает молоко человеку и человек умирает.
- Нет! - Закричал Либиг.
- Почему нет? Оба действия, каждое в отдельности, невинны. Только вместе они ведут к убийству. Вы отрицаете, что подобное возможно?
- Убийцей будет человек, который отдал приказ, - воскликнул Либиг.
- В философском смысле, да. Но исполнителями приказа, орудиями убийства, будут роботы.
- Ни один человек не отдаст таких приказов.
- Отдаст. Это уже сделано. Все так и произошло при попытке убийства Груэра. Полагаю вы слышали об этом событии?
Хорош своими пет-проектами заниматься, гоу баги чинить.
Кинопоиск 7.63.2
steps to reproduce:
- открыть кино
- свернуть кино в плавающее окно (кнопкой в углу)
- открыть новое кино
result:
- кнопка "закрыть" (крестик) не работает
- жест "назад" тоже не работает
=> кино нельзя закрыть, можно только свернуть.
environment:
1) Redmi Note 11
2) Mi Pad 5
reproducibility:
100%
И не только перевод. Она вообще большая умничка.
В моём случае шумит служба оптимизации NET, после каждого обновления net ей надо что-то компилировать минуты три с полной загрузкой одного ядра.
У нашего Яндекса такая же политика. Заблокировали при попытке открыть карту Пей без объяснения причин. Благо, не весь аккаунт, а только банковские услуги, но в блок попал и номер телефона. Никаких карт левых не покупал, аккаунту лет двадцать...
Телефон позже удалось разбанить через поддержку, а банк - нет, несмотря на то, что банки обязаны сообщать причину отказа "в объеме, достаточном для обеспечения клиенту возможности ее использования при реализации механизма реабилитации клиентов" (письмо ЦБ РФ от 12.09.2018 года № ИН-014-12/61, и методические рекомендации от 22.02.2019 № 5-МР). Судебная практика, кстати, существует, но максимум можно стрясти 5 т.р.
Тот же вопрос: зачем? Неужели в школе робототехники нечего показать вживую?
А что такого удобного в сервисе gmail?
Когда вы готовы выйти на работу?
-- РКН
AquaMail
да нет там нихрена... андроид прибит гвоздями к экосистеме своего создателя. Галерея, контакты - всё это синхронизируется либо с гуглом, либо с китайцами. Яндекс пытался залезть - ему быстро объяснили, кто тут папа.
О, сапёр!
Занимательно, спасибо)
Сделано, спасибо за бдительность.
Это получается, робот своим бездействием причинил вред людям?
Всыпал детям ремня, потому что больше уронить колонку было некому.
рус+англ:
https://annas-archive.li/search?q=Mastering+the+8088+microprocessor+by+Dao%2C+Lanny+V
- Алиса, поставь лайк
- Ставлю лайк
- Алиса, убери лайк
- Ставлю дизлайк :P
- Алиса, убери дизлайк
- Не могу ^_^
Они оба помогают во время тех самых дней, хотя механизм разный. Такие вещи я обычно спрашиваю у американского "ящика". Всяко лучше, чем статья на дзене.
Вчера обезбол нужен был девушке. Спрашиваю: "Алиса, где побочки больше, у дротаверина или у кетанова?" - она чётко расслышала оба названия, повторила их вслух и выдала тираду о том, какой дротаверин ужасный, и по сравнению с кетановым - вообще смерти подобен. В реальности всё наоборот.
Если у вас есть колонка, спросите, "сколько ехать от Мурома до Москвы" или "где находится город Орск".. Смысл всё это перечислять? Это зарепорчено в поддержку два года назад.
Алиса не самая отстающая, она, наоборот, из российских - номер один. Но это как победитель конкурса интеллектуалов в дурдоме.
Да всё в порядке, они просто компьютер перезагружали после обновления.
"Обнажённое солнце", 1956 год. Книжки Азимова - натурально сборник эксплоитов)
flibusta.is/b/842942
- Чушь. Робот не знал о...
Бейли откинулся вперед на своем кресле.
- Вот мы и добрались до сути! Давайте теперь сформулируем Первый Закон так, как он должен звучать на самом деле: робот не может сделать ничего такого, что, насколько ему известно, причинило бы вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
- Это подразумевается.
- Не думаю, что это понимает средний человек. В противном случае он бы понял, что робот может совершить убийство.
Либиг побледнел.
- Псих! Ненормальный!
Но Бейли смотрел на кончики своих пальцев.
- Полагаю, робот выполнит какое-нибудь невинное действие, которое не причинит вред человеку?
- Если получит приказ.
- Ну Разумеется. И второй робот тоже может выполнить невинное действие, которое не способно причинить вред человеку?
- Да.
- А что если два действия, каждое совершенно невинное по-отдельности, совершенно невинное, понимаете? Вместе ведут к убийству?
- Что? - Либиг мрачно нахмурился.
- Мне нужно экспертное мнение по этому делу, произнес Бейли. - я описал вам гипотетический случай. Представьте, человек говорит роботу: «Добавь немного этой жидкости в стакан с молоком, который ты найдешь там-то и там-то. Жидкость безвредна. Я всего лишь хочу проверить ее действие на молоко. Как только я это выясню, смесь выльют. Когда закончишь - забудь о сделанном.
Либиг, все еще нахмуренный, молчал.
Бейли сказал:
- Если я прикажу роботу налить жидкость в молоко, и затем подать человеку, Первый Закон заставит его спросить: «что это за жидкость?» и «не может ли она причинить вред?». И если будет вероятность, что жидкость может нанести вред, Первый Закон заставит робота усомниться и робот откажется подавать такое молоко. Но вместо этого ему говорят, что жидкость выльют.
- Первый Закон здесь ни при чем. Сделает ли робот то, что ему сказали?
В глазах Либига зажегся огонь.
Второй робот наливает молоко. Он не осведомлен, что молоко отравлено. Ни о чем не подозревая, он предлагает молоко человеку и человек умирает.
- Нет! - Закричал Либиг.
- Почему нет? Оба действия, каждое в отдельности, невинны. Только вместе они ведут к убийству. Вы отрицаете, что подобное возможно?
- Убийцей будет человек, который отдал приказ, - воскликнул Либиг.
- В философском смысле, да. Но исполнителями приказа, орудиями убийства, будут роботы.
- Ни один человек не отдаст таких приказов.
- Отдаст. Это уже сделано. Все так и произошло при попытке убийства Груэра. Полагаю вы слышали об этом событии?