Pull to refresh

Comments 259

Спасибо за статью, но что-то мне подсказывает, что ЧБ на тогдашней фотографии и ЧБ в фотошопе дадут разный результат.

Плюс со временем часть фотографий желтеют и это тоже вносит свой вклад.
Да, ЧБ это совсем не простой эффект, в цифре куча способов его получить. PAL, HDTV и усреднение RGB «в лоб» дадут совершенно разные оттенки серого, а нейросеть «восстановит» совершенно разные цвета.
В аналоге нюансов бесконечно больше, там и свойства пленки, и используемые реактивы, и даже условия хранения дают свой эффект. Я много занимался восстановлением старых фотографий и колоризацией, на большинстве снимков даже один тон неконтролируемо «плавает».

К тому-же нейросети не для дилетантов, это вполне обычные программы, которые созданы решать некоторую определенную задачу. Если задача не определена, то и результат получаем соответствующий. Сотворить и обучить нейросеть может любая обезьяна, тут знаний надо меньше чем для веб-программирования. Большинство начинаний идут от студентов, которым нужен не продукт, а хотя-бы какой-то результат, чтобы запостить публикацию и получить зачет. И делается это все на паре десятков «позвоночников», предобученных на условном ImageNet.

Если нам надо раскрашивать машины, то мы берем фотографии машин до «состаривания» фотографии и после, обучаем раскрашивающий фильтр. Если нам надо раскрашивать обезьян, фотографии машин нам уже не годятся, так же как не годится троллейбус из хлеба для полетов в космос.
Но дрессированых обезьян от использования тяп-ляп-ретуширования на скверно обученных нейросетях это не отвратит.
Ч/Б — это совсем простой эффект. Вся разница лишь в процентном соотношении каждого из каналов. Считается что для максимально корректное распределение световой характеристики даёт зелёный канал. Красный выглядит очень непривычно. А синий — самый шумный. Поэтому для «правильного» перевода в чб берётся либо формула G-60 R-30 B-10, либо просто яркостный канал из модели Lab.
Ну а теперь вопрос — какая нейросети разница какой оптической плотностью передан на моей фотографии тот или иной оттенок? Машина может быть изначально зелёного цвета, а может я просто переэкспонировал кадр.
Больше удивило то, как некоторые сервис крайне неаккуратно «раскрашивают» — постоянно вылезая за границы контура. Я-то кажется понимаю откуда растут ноги — и это удивляет ещё больше. Аккуратно «раскрасить» используя только цветовые каналы Lab и кривые/уровни — вообще не проблема. Но кто-то, видимо, решил подрубить и blur.

Если нужно имитировать совсем старое монохромное фото, берем только B.

ЧБ на черно-белой пленке образовано не только монохромными RGB, но и остальными частями видимого спектра и кусочками ИК и УФ, причем для разных пленок с несколько различающимися кривыми чувствительности.


Так что, как могут предлагать "универсальную" раскрашивающую нейросеть — хз.

Так что, как могут предлагать "универсальную" раскрашивающую нейросеть — хз.

Я список сервисов для теста по интернету собирал. В разных обсуждениях и обзорах.


Нигде не пишут "Эта нейросеть предназначена только для раскрашивания цветочков. Не используйте её для раскрашивания лиц."


Просто рассказывают о прелестях новых технологий.

Если нам надо раскрашивать обезьян, фотографии машин нам уже не годятся, так же как не годится троллейбус из хлеба для полетов в космос.

Именно.


У людей ровно то же самое
Беда, коль пироги начнёт печи сапожник,
А сапоги тачать пирожник,
И дело не пойдёт на лад.


Но среди не-айтишников это не все понимают.


Многим кажется, что волшебная нейросеть универсальна и может всё.

Вы это к тому, что будь нейросети тренированы по ЧБ в фотошопе (они, кстати, скорее всего были тренированы по "ЧБ в фотошопе", ибо откуда еще взять нужное для тренировки число пар "ЧБ"-цвет), то результат был бы принципиально иным? Сильно сомневаюсь.
Задачи, затронутые автором статьи, на 100% не способна решить даже лучшая из известных на данный момент нейросетей — ваш мозг. И это при том, что ему доступны такие инструменты, как "поискать в архивах, каких цветов выпускались Ford A в 1920 году.


На самом деле проблема-то довольно похожа на давнешнюю историю с улучшайзерами в звукозаписи/воспроизведении.

> И это при том, что ему доступны такие инструменты, как «поискать в архивах, каких цветов выпускались Ford A в 1920 году

И вот что-то мне смутно подсказывает, что в 1920 цвета „глубокий зеленый металлик“, в которой раскрасили Ford самые настоящие ковжаные ублюдки „реставраторы“, еще не было… А еще что-то тут на искусственные нейросети пеняем (это последнее не к Вам или автору статьи, есичо, — он-то использовал и предлагает ввести в обиход корректную терминологию и я всеми конечностями за)

По мне так это не металлик, а просто хорошая глянцевая эмаль.


Вот, кстати, реаламная брошюрка тех времен:


Заголовок спойлера

Пруф засчитан) Возможно и не металлик, по фото я, например, не особо понимаю. Буду в DME, гляну вживую.
Спасибо за статью, но что-то мне подсказывает, что ЧБ на тогдашней фотографии и ЧБ в фотошопе дадут разный результат.

Да, Вы правы.


Есть несколько формул обесцвечивания. Я в PaintShopPro делал и просто перевод в оттенки серого и перевод в чёрно-белую фотографию. Результаты разные.


И разница будет и и при аналоговой фотографии. Разная плёнка. Разная бумага. Недосветил фотоувеличителем. Передержал в проявителе.


В данной ситуации, для меня важным было не только то что сервисы в реальный цвет не попадают, а ещё и то что они все дают разные результаты.


Но всё очень правдоподобно смотрится.


Иногда, раскрашенные машинки выглядят интересней чем оригинальные.

Человечеству свойственно извлекать краткосрочные выгоды из технологий, взамен получая сложноустранимые долгосрочные последствия. Какой сферы жизни ни коснись, мы устраиваем там бардак, действуя безответственно. Как подростки.

Придумали антибиотики, стали пичкать ими животных на фермах получая полирезистентную флору. Научились извлекать ископаемые топлива принялись расточительно их жечь. Придумали пластик, стали экономить и делать из него упаковку товаров и продуктов (дешево же) и получили планетарное загрязнение, которое непонятно как аукнется. Придумали как удешевлять программирование через фреймворки и получили современный веб или драйверы объемом в сотни мегабайт.

На очереди применение нейросетей в целях пропаганды. И мы получим веб в виде гигантской непроходимой помойки, заваленной неструктурированным инфохламом. Что там еще осталось, околоземный космос? И там мусора полно.

Пожалуй, с атомным и биологическим оружием у нас хватило воли и прогностических способностей сказать «стоп».
Пожалуй, с атомным и биологическим оружием у нас хватило воли и прогностических способностей сказать «стоп»

Тут вы явно ошибаетесь.

Этот вывод может быть корректным лишь «задним числом». Когда данное оружие исчезнет со сцены не будучи использованным.

А на данный момент и то, и другое вполне налицо, и как чеховское ружье на стене лишь ждет своего момента.
А на данный момент и то, и другое вполне налицо, и как чеховское ружье на стене лишь ждет своего момента.
По крайней мере, ружьё это появилось не вчера, и висит уже достаточно давно, чтобы начать если не ржаветь, то основательно покрываться пылью.
основательно покрываться пылью

Какое поразительное невежество…

Оно не только не «покрывается пылью», но непрерывно совершенствуется — в сторону ПОНИЖЕНИЯ порога применения.

Что еще как бы пол-беды. Настоящая беда — оно РАСПОЛЗАЕТСЯ. Попадая в руки, в которых прямо скажем очень не хочется видеть. Опять же дело не столько в пакистанцах или северных корейцах как таковых, как например в недееспособности пакистанского государства. В силу чего очень велика вероятность попадания ЯО в руки группы фанатиков или уголовников.
Оно не только не «покрывается пылью», но непрерывно совершенствуется — в сторону ПОНИЖЕНИЯ порога применения.

А тут пишут что последняя производившаяся в США спец-БЧ — боеголовка для Трайдент-2 и ее производство завершено 31 год назад.
Настоящая беда — оно РАСПОЛЗАЕТСЯ. Попадая в руки, в которых прямо скажем очень не хочется видеть. Опять же дело не столько в пакистанцах или северных корейцах как таковых, как например в недееспособности пакистанского государства. В силу чего очень велика вероятность попадания ЯО в руки группы фанатиков или уголовников.

Верхушка хоть фанатиков хоть уголовников — люди прагматичные и с айку выше среднего ибо другие в конкурентной борьбе не выживают. И она прекрасно понимает что от применения одиночной бомбы будет хуже им же ибо карательная экспедиция после Хиросимы-2 начнет применять методы времен Киплинга, а не как сейчас.

Историю с Аум Синрикё или Храмом народов знаете?

Знаю. О применении теми и другими ядерного оружия как-то не слышал.

Аум Синрикё пытались достать ядерное оружие, естественно, не получилось, пришлось обходиться химическим. Но речь не об этом, а о том, что ни Сёко Асахара, ни Джим Джонс не производят впечатления прагматичных людей. Конечно, среди лидеров сект есть люди вроде Хаббарда, но далеко не все они такие.

ОК, надо было написать «верхушка опасных ОПГ и сект, а не заканчивающихся на первой же акции».

Оно может исчезнуть со сцены только после появления оружия аннигиляционного (примерно, как исчезли луки, арбалеты и конница)
Технологии нельзя закопать и забыть (без уничтожения их носителей, естественно)

Технологии нельзя закопать и забыть
Американцы когда-то посылали человека на Луну за 400 тыс.км., сейчас не могут забросить на МКС, а это меньше 400 км. Всего-то 50 лет прошло.
И что этот пример иллюстрирует, кроме того что просто невыгодно отправлять туда людей? Технологии никто не забывал, при желании и средствах ту же аппаратуру можно воспроизвести намного быстрее, чем было прии изначальной разработке.
Технологии никто не забывал, при желании и средствах ту же аппаратуру можно воспроизвести намного быстрее, чем было прии изначальной разработке.

Начнём с того, что нет ни того сырья, ни оборудования под которые были разработаны техпроцессы.


Именно поэтому, кстати, крупные производители всякого железа делают запасы запчастей — хрен их потом воспроизведёшь, после утраты технологической цепочки.

Сложно сказать про абсолютно такие же части/детали/устройства, как в 60е, но аналогичный результат товарищи типа Маска явно достигают с намного меньшими ресурсами, чем требовалось на заре космической эры.

Я бухгалтерию Маска не видел, поэтому про "дешевле" сказать не могу.


Но "аналогичный результат" не то же самое что "ту же аппаратуру можно воспроизвести".


Сильно не то же самое.

просто невыгодно отправлять туда людей?
Илон Маск об этом не знает и вкладывается в разработку пилотируемых ракет. И каждый год обещает отправить человека на МКС. Надо же.
Так Маск как раз и вкладывается в разработку таких технологий ракет, чтобы так запускать стало выгодно — по крайней мере, это его декларируемые цели.
сейчас не могут забросить на МКС, а это меньше 400 км.

Технически могут — Дракон стыковался еще в 2012. Не забрасывают потому что НАСА вдруг стало страшно посылать астронавтов на корабле без САС.
И я про то же. А ведь 50 лет назад не боялись на Луну людей отправлять. Явная деградация технологий. При чем в истории таких примеров хватает, это не уникальный случай.
Вы к другим историческим примерам так же относитесь, что «технологии потеряли»? Из известных, например — спуск на дно марианской впадины. Первый человек там был в 1960 году, потом 50 лет никого. Хотя очевидно, что технологические возможности никуда не делись, просто смысла отправлять туда людей мало. Второй раз человек спустился на дно уже в 2009 (Кэмерон, режиссёр).
На самом деле все просто и без примеров с марианскими впадинами. Маск обещал послать человека в космос в 2017-2018-2019-2020 году и что? Это не утеря технологий? Можно утверждать, что виноград зелен, а можно смотреть на вещи реально.
Странно, что вы спрашиваете, но при этом сами не отвечаете (см. вопрос в моём предыдущем комментарии).

Маск обещал послать человека в космос в 2017-2018-2019-2020 году и что?
Я правильно понимаю, что любой случай когда стартап/компания что-то обещает и не делает, вы относите к утере технологий?
Это ответ на ваше утверждение, что американцы просто «не хотят» в космос. Если обещают, значит хотят. Если нарушают обещания, значит на могут. Если не могут, значит технология утеряна.
По поводу других случаев регресса — «темные века» в истории Западной Европы. Это яркий пример «утери технологий», после Древнего Рима.
Это ответ на ваше утверждение, что американцы просто «не хотят» в космос.
Интересно конечно, но я ни такого ни похожего утверждения не писал.

Если обещают, значит хотят. Если нарушают обещания, значит на могут.
Здесь абсолютно с вами не согласен. Сплошь и рядом ситуации, когда (i) государства или компании что-то на публику обещают, а на самом деле руководители не хотят этого, и (ii) когда что-то обещанное (государством или компанией) не выполняется. Примеров огромное количество, как у нас так и за океаном. Вы хотите все невыполненные обещания считать за утерю технологий?
Алле, они до 2011 года летали на корабле без САС. И другой корабль без САС у них летает формально даже с 2010, но беспилотный (хотя периодически с живностью для опытов) ибо НАСА вдруг стала нужна САС и резервирование парашютной системы (у китайцев отсутствует в принципе).

А в середине прошлого века не боялись на машинах без ремней безопасности ездить. Куда катится автомобильная промышленность.

Как минимум по будням я обедаю в кафе. Но не потому что закопал и забыл технологии приготовления пищи, а потому что мне так проще (и в итоге — дешевле).


Американцы когда-то не "посылали человека на луну". Я не про конспирологию, а про то, что не было научной, или тем более экономической задачи "послать человека на луну", была политическая задача "обойти СССР в космосе". И под эту политическую задачу выделили соответствующее (гигантское) финансирование и послали на луну людей (думаю что на современных технологиях в такой бюджет можно и марсианскую миссию организовать). Замечу, что советская лунная программа была свернута после успеха американской (политической выгоды уже не получить, а научно-техническая не стоит тех затрат).
Сейчас такой задачи нет. Нет и финансирования.
Строго говоря в обозримой перспективе человеку вообще мало что делать в космосе: автоматика справляется лучше. И если пока что дешевле посылать астронавтов в космос через байконур, то почему бы и нет. И неспешно пилить свой дешевый вариант доставки. Шаттлы-то перестали делать и запускать не потому что полимеры просрали, а потому что дорого. И холодная война закончилась (а вместе с ней и потенциальные околовоенные применения шаттлов).

Сейчас такой задачи нет. Нет и финансирования.

Вообще-то финансирование есть — 3-4 миллиарда в год на SLS и Орион. Вот только пилить бюджет умеют и в американском аэрокосе правда делают это так что формально не подкопаться.
Шаттлы-то перестали делать и запускать не потому что полимеры просрали, а потому что дорого.

По официальной версии потому что опасно — до катастрофы Колумбии планировали использовать до 2015 с возможностью продления.
Вообще-то финансирование есть — 3-4 миллиарда в год на SLS и Орион

Не тот масштаб финансирования. "Согласно словам Стива Гарбера, куратора сайта об истории НАСА, окончательная стоимость программы «Аполлон» была от 20 до 25,4 миллиардов долларов США 1969 года, или приблизительно 136 миллиардов в долларах 2005 года."


По официальной версии потому что опасно — до катастрофы Колумбии планировали использовать до 2015 с возможностью продления.

При энерговооруженности шаттла принципиальных технических проблем оснастить его системой спасения быть не должно. Вопрос в цене.

Не тот масштаб финансирования.

А им и не надо разрабатывать супертяж с нуля и впервые в мире — RS-25 достался готовый от шаттла, ТТУ — почти готовые от того же Шаттла (пришлось добавлять одну секцию, но это было сделано еще в 2009), RL-10 для второй ступени (или третьей по российской классификации) — вообще от лунной программы. Нового там только баки и моторамы и СУ.
При энерговооруженности шаттла принципиальных технических проблем оснастить его системой спасения быть не должно. Вопрос в цене.

САС Колумбию бы не спасла. А после Челленджера продолжили летать без САС ибо Боинг и Ко мамой поклялись что больше не рванет.
Пожалуй, с атомным и биологическим оружием у нас хватило воли и прогностических способностей сказать «стоп».

В 2020ом часы судного дня снова вперёд вроде переводили. Ядерный арсенал никуда не делся и как мы знаем из истории, как минимум один раз мы были близки к очень большой беде.
Немного поправлю: именно сейчас мы ближе всего к этой самой Ж… беде. (100 секунд до полуночи). Предыдущее значение в 2 минуты было в 1953 году и в 2018.
UFO just landed and posted this here
Повышенная активность ядерных испытаний Северной Кореей.
Т.е. во время Карибского кризиса всё спокойненько в мире было?

Они просто не хотели подливать масла в огонь) всеобщая паника им не нужна… По крайней мере у себя)

UFO just landed and posted this here
> dropbox

О, это мое любимое! Сраный клиент для винды, следящий за изменениями файлов запускает порядка 5 процессов, выжирает для себя полгига ОЗУ и суммарно под 200 (!!! прописью: двести) потоков.

Цифры конечно ужасают, но при этом на практике dropbox с ~2013 года, и ни на одном из компьютеров конкретно он не становился причиной тормозов. Включая машинки с HDD. Так может и фиг с ним, пускай кушает, если это позволяет ему быстрее отслеживать изменения и заливать их в облако/из облака, а мне не доставляет проблем?

О отличный аргумент «у меня все работает». А у меня становился источником проблем, и не раз. Когда на глаз видно что комп тупит, открываешь список процессов, а там в топе дропбокс, причем сразу на нескольких ядрах. Причем я понимаю, что у него на попечении гигов этак 10-12, и я их с недельку не трогал, но дропбоксу вот захотелось пару ядер загрузить под соточку, и хеши все пересчитать. Причем не в фоне, и не в минуты простоя, а вот прямо внаглую отжирая ресурсы.

Потому что… хз почему. Потому что может!
Так может и фиг с ним, пускай кушает

Вопрос в том, нафига они такое нагородили. Это всё можно было бы уложить в системный сервис + утилитку в трее с контекстным меню на 2 пункта. Но нет! Мы притащим сюда весь Qt5 (включая 70-мегабайтный Qt5WebEngineCore.dll), Питон с кучей пэкэджей, компилятор шейдеров от Хромиума, либу OpenGL, редистрибьютабл С++, отдельный UI для WindowsXP и ещё кучу-кучу всяких костылей и велосипедов. И это для утилиты, которая 10 лет назад весила мегабайтов 5, помещалась вся в три бинарника, создавали три потока — и делала то-же самое, что и сейчас!
Да, неплохо. У меня 3 процесса.
Судя по командной строке: Основной, крашхендлер и exit-monitor.

180+ потоков суммарно.
И чем вам так плох современный веб?

Тем, что если раньше разработчики страдали во благо пользователей, то теперь пользователи страдают «во благо» разработчиков. А именно — ценой тормозов, нервов и потраченных на апгрейд денег. А апгрейд ради чего? Что функционально изменится? Ничего, просто это апгрейд в угоду ленивому разработчику, который без фреймворка уже и лендинг сделать не сможет.
UFO just landed and posted this here
Разрешите поинтересоваться, каков объём оперативной памяти у Вашего компьютера?

По поводу фреймворков — удешевление и упрощение разработки заставляет разработчиков меньше думать о потребляемых ресурсов вообще и о памяти в частности. В итоге имеем т.н. Пейсбук, от главной страницы которого мой ноутбук пытается улететь в стратосферу на вентиляторе, имеем Инстаграм, который на самом деле веб-сайт и от которого мой телефон ощутимо нагревается просто при редактировании статичной картинки в сториз.

Да, современная разработка дешевле, потому что компании переложили стоимость разработки на стоимость оборудования, способного вытянуть современные поделия.

Если бы закон Мура не компенсировался законом Вирта, то во вселенной начались бы уменьшение энтропии, всеобщее благоденствие и прочие недопустимые вещи

UFO just landed and posted this here
не факт, что альтернативы лучше, или возможны

Почему раньше работало, а сейчас перестало? Иногда в качестве контраргумента приводят довод о том, что, дескать, раньше веб-страницы были проще и вообще приложениями не считались. Так вот, неправда, вспомните панели управления WordPress, phpMyAdmin, DLE, простиг-споди 1С: Битрикс — они достаточно сложны, на порядок сложнее, чем Инстаграм или Фейсбук, но при этом они работают в разы быстрее. Внешний вид? Так это решается средствами CSS, а не фреймворками.
UFO just landed and posted this here
Хипстограмм и пейсбук просто уникальные в своем роде. Тот же вконтактик работает вполне шустро. А на битриксе написан сайт и форум журнала «Новости космонавтики», который пару лет назад регулярно выпадал в осадок при появлении этих самых новостей. Сейчас работает стабильней, но, подозреваю, потому что на него забили все кроме завсегдатаев.
Тот же вконтактик работает вполне шустро.

Пока не захочешь достаточно далеко отлистать ленту/историю сообщений.
UFO just landed and posted this here
Так его и сейчас 90% населения прочесть не смогут.

Потому что TL;DR.

Вопрос соотношения необходимых усилий. Тогда их требовалось больше, чем имелось в наличии, а сейчас — всего лишь больше, чем люди считают нужным выделять. Иначе говоря, сейчас эти самые 90% населения технически могут, но им это на фиг не сдалось, а тогда 90% населения действительно не могли.

фб — единая распределённая система. админки сайтов или майадмина сами по себе. и вряд ли они смогли бы так же шустро работать при сопоставимых нагрузках.
хотя да, монстры типа фб, джимэйла и прочих "богатых сетевых приложений" ;) жрут много память на свои свистелки-перделки. а интерфейс фб так вообще ужасен генетически. но нагрузку держит

Не путайте, пожалуйста, фронтенд и бэкенд. Говоря о тормозах, я имел ввиду банальную прокрутку ленты, открытие модальных окон, открытие просмотрщика фотографий — всё это дико нагружает процессор, и запросы к бэкенду тут не при чём.

Про атомное я согласен. Но биологическое… ТВ не смотрите?

вы с информационным не путаете ?

Думаете, коронавирус не мог быть пущен умышленно?

Я думаю, что в коронавирусе примерно 1% вируса и 99% информационного сопровождения, раздуваемого для решения своих внутренних политических и экономических задач

Пожалуй, с атомным и биологическим оружием у нас хватило воли и прогностических способностей сказать «стоп».


Биологическое (как и химическое) просто оказалось неэффективным. С атмомным — никакого «стопа» нет и близко. Думаю, скоро увидим применение его как тактического. Увы.

Странно, что ты не написал про современную концепцию сверхпотребления вообще, когда вся промышленность, производящая товары народного потребления, фактически работает сразу на свалку, настолько мало живут эти товары у пользователя.

Пока на планете доминирует общественно-экономическая формация, главной целью которой является извлечение максимальной прибыли любой ценой, человечество и будет вести себя как подростки.

Я в общем обременён аналогичными мыслями о потребительстве, индустрии «говна» и прочих прелестях современности. Однако до вашего поста эта тема была вне контекста. Хотя на мой взгляд опасности от описанных «экономических эффектов» ни то чтоб меньше… по моему скромному мнению ориентация на экономический аспект общественной жизни от человека как существа живого, одушевлённого, осознающего ни останется и пустого места.
Больше того кажется мне, что для этого и увели на экономико-демократический, вместо социально-политического, фронт народы современного мира.

Ничего особенно современного в этом нет

Странно, что ты не написал
Что случилось месяц-два назад, что Хабр начал активно переходить на «ты»? Я сам не против, но я явно пропустил какое-то событие.
Биологическое (как и химическое) просто оказалось неэффективным.

Химическое широко и успешно применяли до конца ПМВ при наличии противогазов. Хинт — противогаз еще надо успеть одеть. С биологическим да — не взлетело.
С атмомным — никакого «стопа» нет и близко.

Настолько нет и близко что последнее боевое применение в 1945?
Думаю, скоро увидим применение его как тактического. Увы.

И какие тактические задачи сейчас решаются только тактическим ядерным оружием и ни каким другим?
Странно, что ты не написал про современную концепцию сверхпотребления вообще, когда вся промышленность, производящая товары народного потребления, фактически работает сразу на свалку, настолько мало живут эти товары у пользователя.

Мой предыдущий смартфон прожил 4 года без единого ремонта, предыдущая персоналка — 9 лет и пошла в отставку только потому что мне хотелось в одну современную игру погонять. ЧЯДНТ?
Пока на планете доминирует общественно-экономическая формация, главной целью которой является извлечение максимальной прибыли любой ценой

Уже давно не доминирует и не факт что вообще доминировала. Если капиталист будет максимизировать прибыль любой ценой — он прогорит ибо не делал инвестиций в развитие.
человечество и будет вести себя как подростки

Как будто что-то плохое.
Если капиталист будет максимизировать прибыль любой ценой — он прогорит ибо не делал инвестиций в развитие.
Это разве только малого бизнеса касается. Вот что должен сделать например Боинг, чтоб прогореть? Да это абсолютно невозможно, государство спасёт его в любом случае, даже в самой скверной ситуации.
До Боинга в США было много других аэрокосмических корпораций вроде Convair. Почему-то их государство не спасало. Ну и чистая прибыль Боинга 5 миллиардов при обороте почти в 100 — как-то не похоже на максимизацию прибыли.
Спасибо за детальный обзор возможностей нейросетей.
Г-ди, да где ж вы тут «обзор возможностей нейросетей»-то увидели? Разжевывание до состояния химуса тривиальных знаний, обретаемых еще детьми 3-4 лет, что утеря чего угодно (времени, товаров, денег, информации) не может быть восстановлена, она может быть только заменена чем-то новым. И похожесть этого нового на оригинал может быть вообще любой, начиная с никакой. При чем тут нейросети? Тем более «обзор возможностей..»

Читал статью с недоумением, а теперь вижу, что ой не зря ее автор написал…
Подразумевалось в рамках обсуждаемого контекста. Спасибо за поправку.
Спасибо и Вам, что правильно поняли.
Вспомнилось, как один вроде бы неглупый человек доказывал мне, что музыку можно сжать а потом разжать без потери качества. И да, он имел в виду mp3 128 и ниже, а не современные форматы сжатия без потерь, которые хоть и позволяют сократить занимаемое место, но не до бесконечности, а в довольно узких рамках.
кмк, музыку как раз расжимать более-менее реально, тк алгоритмы сжатия известны. Другое дело, что непонятно, зачем это вообще нужно.
Нельзя. Там верхняя граница в 8-10 кГц. Выше просто нет никакой информации.
Разжимать реально. Разжимать без потерь музыку, сжатую с потерями — нереально.
ну я имел в виду задачу «сделать чтоб звучало похоже на лосслесс». Понятно, что, если информации нет, то ее не родить, но и «морда обезьяны» тоже скорее всего не появится.
Читал статью с недоумением, а теперь вижу, что ой не зря ее автор написал…

Велкам ту зэ клаб :)

UFO just landed and posted this here
Это шедевр, я согласен, эта обезьяна — “Simia ex Machina” сделала мое утро!
UFO just landed and posted this here
Обезьяна в фаре — это то, как на самом деле работает CSI zoom.
Обезьяна в фаре — отлично демонстрирует работу нейросетей.
Я думаю, автор это и имел в виду, когда чуть ниже написал:
«теперь эта проблема обрела своё конкретное лицо».

Обезьяна в фаре — это нечто ещё более страшное, чем обезьяна в vim-е.

для сложных задач не используют такие обобщённые нейросети

И даже когда технологии продвинутся вперёд и таких размазываний не станет, это не изменит ситуации с тем, что восстановить происходившее между кадрами невозможно, и всё что нам остаётся — дорисовывать некое усреднённое состояние.

Но ведь от этих «увеличителей fps», как мне казалось, никто и не ждал появления новых деталей. Просто увеличится комфорт от просмотра фильмов
Может и не «новых» деталей, но как минимум, что новая картинка будет достаточно естественной, то есть поверит ли мозг, что так изначально и было. Как показывает практика, верит не у всех и не всегда.
Пробовал смотреть фильмы с «увеличивалкой фпс», но основанную на свойствах алгоритмов сжатия видео. Там «всё очень просто». Соседние кадры разбиваются на блоки и каждому блоку задаётся вектор перемещения, куда этот блок поместить в следующем кадре. Этот блок сохраняется один раз сразу для последовательности кадров и получается сжать видео. Так вот при увеличении фпс этот блок сдвигают вдоль вектора на меньшее расстояние (масштабируют вектор). В зависимости от видеоряда и качества видео, результат бывает вполне смотрибельный.
Было бы интересно, чтобы нейронная сеть «улучшала» промежуточные кадры на основе соседних, имеющихся в видео. Но в реал-тайме вряд ли сейчас такой объём вычислений возможен.
Но ведь от этих «увеличителей fps», как мне казалось, никто и не ждал появления новых деталей.

Я не уверен в слове "никто".


Люди далёкие от технологий не понимают что происходит.


Им говорят "нейросеть восстановила цвет" и они считают что перед ними изначальный цвет, который был во времена создания исходной фотографии.


Так же и с размерами и с дополнительными кадрами.


В оптических приборах можно увеличить и рассмотреть детали. Так почему тут нельзя?


Вот и приходится объяснять, почему именно нельзя.


Я поэтому и начал писать книжку в среде максимально далёкой от профессионального IT-сообщества, ибо это разные аудитории с которыми надо разговаривать разным языком.

> Им говорят «нейросеть восстановила цвет» и они считают что перед ними изначальный цвет, который был во времена создания исходной фотографии.

Да, да — все дело в подборе слов. Если бы говорили «нейросеть _добавила_ цвет» — это было бы ближе к истине. Хотя все равно нашлись бы люди, которые бы поняли как то, что это изначальный цвет.
Все дело в обучающей выборке. Как написал первый комментатор, разница между современными фото и реально старыми, для нейросетей очень велика. Отсюда и большая ошибка на результате предсказания. Можно и цветную попробовать туда загрузить или черно-белый комикс и сетовать на плохой результат. Все зависит от данных, на которых сеть обучалась. Нейросеть может быть «умной» исключительно на этих данных. Любое даже незначительное отклонение от этих данных приведёт к высокому значению ошибки.
Ну, то есть, идеальную сферическую нейросеть в вакууме надо было обучать на не на рандомном датасете, а на конкретной фотографии «до»\«после» — и тогда бы она эту фотографию раскрасила идеально, ага.
Не совсем так. Если надо раскрасить фото природы, то и обучать надо на фотках природы. Если городской пейзаж, то на фотках города. Если дать слишком разнообразный датасет, нейронка сможет раскрасить любое фото, но хуже чем тренированная под конкретику.
Ну, окей, обучим мы нейросетку тому, каких цветов бывают автомобили. Допустим, даже конкретным автомобилем обучим — скормим ей кучу фоток форда фаэтона из примера выше. И(допустим), в одном и том-же чб оттенке у нас в этом датасете есть 5000 зелёных и 500 синих фордов. В какой цвет эта нейронка раскрасит чб фотографию синего форда?
С таким перекосом датасета в сторону зеленых, скорее всего зеленым.
Ну окей, а с равномерным распределением зелёных и синих — с 50% вероятностью в зелёный. Это, получается, по идеальному датасету(для этой фотографии). Но ведь может быть в производстве разное распределение цветов? Например, 50% выпускаемых машин чёрные, 20% белые, 20% зелёные, и по 5% на остальные, менее популярные цвета включая синий. Какой датасет считается правильным — тот где равномерное распределение всех возможных вариантов, или тот где распределение возможных вариантов сделано на основе их веса? Допустим, нам надо раскрасить тигра. Должны ли мы в датасете дать одинаковое количество обычных тигров и тигров альбиносов? Ведь тогда наша нейронка будет ошибаться и неправильно раскрашивать половину тиргов? Или мы должны представить альбиносов минимальным количеством фото в датасете, а то и вообще убрать их? Тогда наша нейросетка будет правильно раскрашивать 99% тигров… Но будет давать ошибку на альбиносах.
Интересный вопрос. Идеального датасета не существует :) Есть тот, который позволит добиться от нейронки результата, который бы нас устроил. Где то можно добавить на вход нейронки доп. данные или параметр. Делаем вариационный автокодировщик и сами задаем цвет тигра, как дополнительный входной параметр. Может будет лучше работать, если обучить на обычных тиграх, а потом дообучить на небольшой подборке 50\50 с альбиносами. Это все зависит от конкретной задачи. Иногда можно выкинуть что-то из выборки, иногда ее сбалансировать по другому. Если шаблон и есть, то я про него не знаю. Каждый раз эксперименты…

Есть идея, которая звучит в комментариях со стороны фанатов ненейросетей, но не всего её понимают.


Эта идея о том, что нейросеть строит модель.


Набираем примером полёта камня у поверхности Земли, нейросеть строит модель и способна дальше с этой моделью работать.


То же самое, с распространением эпидемий, сейсморазведкой полезных ископаемых и пр.


Но в случае с преобразованием чб->цвет не существует возможности построить модель.


Не "сложно", а именно что "невозможно".


А если нельзя построить модель, то это не моделирование, а фантазирование.

Что касается цвета машин, если они дают близкий оттенок на чёрно-белых фото, то точное восстановление цвета невозможно впринципе. Это не сможет сделать и человек. Если же есть хоть какие-то мелкие зацепки, детали, по которым эксперт может высказать мнение о цвете определённых элементов, то это сможет сделать и большая, хорошо обученная нейросеть. Как в примере тигров, если на основе ширины и формы полос, разности интенсивности оттенков эксперт сможет сказать, это альбинос или нет, то и нейросеть сможет.

Или возьмём пример из обработки текстов (мне это ближе). Вот цитата из Чайковского, слегка упрощённая и изменённая:
Музыка не только развлекает, но доводит до ощущения блаженства, для его до бесконечности.

Мы хотим её перевести на английский язык. В подавляющем большинстве случаев слово «для» переводится как предлог «for». Но человек, хорошо владеющий русским языком, поймёт, что в данном случае оно использовано как деепричастие от глагола «длить». Потому что обстоятельство времени «до бесконечности» хорошо сочетается с глаголом «длить». Тем не менее, все нейросетевые переводчики переводят в этой фразе «для» как «for»:
  • Яндекс Переводчик: Music not only entertains, but brings to a sense of bliss, for it to infinity.
  • Google Translate: Music not only entertains, but brings to the sensation of bliss, for it to infinity.
  • DeepL: Music not only entertains, but brings a sense of bliss, for it to infinity.

Это значит, что у них два пути:
  1. Ещё больше увеличивать выборки параллельных текстов, стараясь охватить все возможные употребления всех возможных слов
  2. Вводить элементы экспертных систем перевода, которые развивались до широкого распространения нейросетей.

Поддерживаю. Я как-то загружал старое ч/б фото в нейросеть. На фото из-за дефекта проявки (неоднородность температуры, перемешивания или чего там еще) был слабый градиент, который сводил нейросеть с ума, потому что в ее обучащаем наборе из цифровых фотографий такого не было и не могло быть.

Та же самая ерунда случается с сервисами переводов, основанными на нейросетях. Особенно если выбрать два достаточно близких языка, но для которых во время обучения сеть не тренировалась на прямых переводах.
Например, если взять польский текст и перевести на белорусский язык. Иногда получается перевод надуманный, в котором вроде и слова примерно правильные используются, но в целом получается нелепица, а то и полностью "ортогональный" смысл. Такое происходит и в Гугл Транслейт, и в Яндекс. Потому что не имея достаточно опыта разбора готовых прямых польско-белорусских переводов, они внутренне гоняют текст через английский и русский, по дороге теряя оригинальные детали, и приобретая элементы этих промежуточных языков.

Да, я читал новость, слежу за разработкой. Жаль, пока там только 9 самых распространённых языков. На этих языках много параллельных текстов, поэтому качество перевода для них и в Гугле и в Яндексе тоже получше, чем для менее распространённых.

а у кого-нибудь есть граф по которому гоняет GT?
Насколько я знаю, некоторые пары языков она переводит не через английский (скажем ру-укр)

Давно ли мы над ПРОМТ с английского на русский «когда вы упретесь в мертвый конец — давите космическую преграду» ржали?

А мы не переставали — Гугл Транслейт достойно принял эстафету компьютерного перевода и радует нас раз за разом :)

Смеяться над ГТ после ПРОМТ — это
В русефикацию Alpha Centauri (оригинальной) играли?

Нет.


И вообще, меня русифицированные игры не привлекали.


Привыкнув разок к англоязычным обозначениям, я так и не смог переучиться на русифицированных Героев.

Вдруг кому-то будет интересно что такое «гениталий на гусеничном ходу» — это trackball, а «сапог-полено» — bootlog.
Я к тому написал, что если нейросеть не тренировать на данных, на которых она потом будет работать, то она будет додумывать детали, взятые из тех данных, на которых её тренировали. И это не зависит от области применения, будь-то восстановление фотографий, или компьютерный перевод.

Она всегда будет додумывать детали. :(


Но если её тенировали на правильном датасете, то это просто не будет бросаться в глаза.


Это одновременно является и плюсом для кинозрителя, и минусом для историка.

а нейросеть неспособна определить, какие данные ей подсунули, какой из известных ей датасетов применять в конкретном случае? (понимаю, что зависит от реализации. но есть такие или нет?)

А вот это одна из главных проблем использования нейросетей.


Человек-аналитик или компьютерная программа выполняющая строгий математический расчёт скажут "данных для расчёта недостаточно".


Нейросеть же свою работу сделает независимо от количества данных в датасете и того подходит ли датасет в конкретном случае.


И если несуразность результата не будет бросаться в глаза (как в случае с лицом в фаре или раскрашиванием от mail.ru ), то у нас нет возможности проверить полученный результат.

после прочтения захотелось, чтобы на таких обработанных фотографиях обязательно добавлялся текст об обработке. другой вопрос что в современных фотокамерах обработка начинается на этапе самой фотографии. интересно, а «обезьяны» будут появляться на современных SpaceZoom и прочем?

Где-то в обзорах телефонов в прошлом (или поза-прошлом) году, при обзоре камеры демонстрировали, что нейросеть в телефоне улучшила резкость окон дома, где-то на заднем плане. Форма окон при этом изменилась на другую )

UFO just landed and posted this here

Спасибо.
Почитал начальные материалы про Huawei P30 и снимки Луны.


Не знаю чем кончилось дело, но очень забавно.

Проблема ещё в том, что современные фотографии в самом фотоаппарате/смартфоне зачастую прогоняются через неотключаемый улучшайзер. Потом, на Хабре несколько лет назад была статья на Хабре про слишком умные копиры, которые в процессе копирования документов с мелкими цифрами вносят критические ошибки, например, рисуют цифру 1 вместо буквы I или l или наоборот. Или путают 1 и 7. Понятно, какие последствия это может иметь — любые, и в том числе очень печальные. Например, если в самолёт зальют не 4740 кг топлива, а 4140 и самолёт не долетит. Или будет ошибка в площади продаваемой недвижимости в нотариально заверенных бумагах, что повлечёт годы судебных разбирательств.

несколько лет назад была статья на Хабре про слишком умные копиры, которые в процессе копирования документов с мелкими цифрами вносят критические ошибки, например, рисуют цифру 1 вместо буквы I или l или наоборот.

Да, это история очень показательная во многих отношениях. Проблема была известна за несколько лет до того как о неё громко заговорили.


А в моём случае всё гораздо хуже — речь об использовании популярного алгоритма сжатия, который активно использовали для сохранения отсканированных письменных источников. И до сих пор используют.


И когда этот алгоритм путает "и" и "н" это не так страшно, хотя и затрудняет поиск по тексту.


Но когда перепутаны "6" и "8" — это уже проблема.

Касательно улучшения видео без нейросетей:
Увеличение частоты кадров можно делать через SVP.

Далее, рендерер можно использовать madVR, вот здесь:
https://yabb.jriver.com/interact/index.php?topic=110989.0
описываются настройки SVP с madVR'ом для получения качественного улучшения картинки («киношное» видео с увеличенным fps).

Все вышеперечисленное — без нейросетей, ну и результат мне нравится.
У меня умный телевизор (LG образца 2013 или 2012 года — не помню) умеет делать схожий «улучшайзинг» — но вот его результат мне совершенно не нравится(особенно на динамичных сценах, в гонках так вообще противно всё выглядит).
Именно, в телевизорах — как раз, «как делать не надо», или SVP с базовыми настройками (мне результат не нравился). А вот то что я скинул — там как раз и делается то, что нужно (ну, на мой взгляд).

И в динамических сценах тоже все хорошо (на это я обращал внимание в первую очередь), если видеокарта и процессор позволяют.

SVP хорошо работает только на небольшом подмножестве задач.

А на каких задача очевидно плохо? (интересно проверить)
В стоке, как я выше написал, мне не очень нравился результат.
Быстрое движение объекта на сложном или активном фоне. Вокруг объекта будут расползаться волны, либо он сам будет на них разваливаться. Также регулярный фон SVP дается плохо.
Наверное, один из самых плохих кадров, который мог выдать SVP, зато хорошо видно проблему. Идеальной интерполяции кадров я пока не видел.
Я записал два видео, сравните (нужно скачать и посмотреть локально, тк google drive плеер пережимает):

SVP в стоке
SVP + madVR

На мой взгляд, качество разительно отличается.
Конечно отличается. Но SVP в стоке в принципе достаточно плохо работает, надо подкручивать. Как сконфигурирован madVR, кстати?
UFO just landed and posted this here

Да ладно, я сто раз в кино видел, как читают надписи на визитке, увеличивая картинку с камеры наблюдения за три квартала!

Это вполне технически реализуемо.
И на хабре статья проскакивала, кстати.
Алгоритм пишет все цифры в нужно плоскости, а потом ухудшает изображение цифр до исходника.
И смотрит какие цифры какие результаты дали. Иными словами — каждая цифра дает свой достаточно уникальный отпечаток и по этому отпечатку алгоритм способен её узнать.
В некоторых случаях, даже если цифра деградировала до одного пикселя — восстановление возможно.
Основная проблема в подборе параметров сжатия. Т.к. надо учитывать множество параметров которые влияли на данные в процессе записи(освещение, шумы, пространственные искажения и т.п.)
Весьма любопытно узнать про эти «некоторые случаи», когда восстановление возможно из 1 пикселя

Эти некоторые случаи называются "переобученная нейросеть".
Если ей подсовывать те пиксели, на которых ее обучали — будет прям удивительно хорошо "восстанавливать информацию".
Если другие, то тоже будет "восстанавливать", но ту же самую информацию, что и в предыдущем случае

Там вообще нейросеть не используется.

суть не меняется
заточенный на восстановление цифр из пикселей алгоритм прекрасно восстановит в цифру 8 пиксель, в молодости бывший буквой ё

Верно. Поэтому речь и идет о восстановлении цифр(читай фиксированного и очень ограниченного набора символов).
А еще она не сможет восстановить цифру из пикселя, если на него оказывала влияние соседняя цифра.
Здесь нет магии. Достаточно простые, но в ряде случаев вполне эффективные алгоритмы.
Например, номер автомобиля очень хорошо попадает в разряд ситуаций, где этот алгоритм хорошо себя показывает. Мы знаем шрифт, мы знаем набор возможных символов, мы знаем цвет фона, нам не нужна 100% точность, достаточно лишь серьезно сократить выборку.
Это когда 1 с такого расстояния превращается в один пиксель, а остальные цифры в 2.
Восстановление по градиенту. Разные цифры дадут разный цвет пикселя.

Обычно для этого используется несколько кадров.

Лихо у вас выходит. А откуда ваша сеть узнает, какой шрифт был использован для записи цифр на визитке? В разных шрифтах ядра могут оказаться разными.
Выше я уже писал что ограничения алгоритма. В том числе про шрифты. Повторяться смысла не вижу.
А вот это кто выше написал, в ответ на шутку про однопиксельные числа на визитке: «технически это реализуемо»?
Там написано «в некоторых случаях». Знание шрифта тоже попадает под требования к этим «некоторым» случаям.
Но даже дополнение про «некоторые случаи» там не обязательно, т.к. вполне очевидно что подобные алгоритмы будут иметь ограничения.
В следующий раз предлагаю вам докопаться до формулировки в описании автомобиля «разгон до 100 км/ч за 10 секунд» фразой «Лихо у вас выходит. А если я бетонную стену перед машиной поставлю — что, тоже разгонится?»
Простите, но очень хочется пруф. Какой-нибудь случай из жизни, «когда даже если цифра деградировала до одного пикселя — восстановление возможно». Вот чтобы весь машинный номер (это ведь идеальный случай в вашей схеме? идеальнее не придумаешь?) был на фото 10 пикселей (ну то есть в пределах 20-30 пикселей если брать с размытыми границами?), а его хоп — и восстановили. Ну пусть не весь номер, но хотя бы цифры их него.
Мне правда интересно, есть ли такие волшебные алгоритмы, что умеют из таких скудных данных вытаскивать ответ. С нужной точностью проходят через все вылезающие интегральные уравнения, и это решение остается устойчивым несмотря на погрешности, вносимые неидеальностью оптики камеры, индивидуальными различиями отдельных пикселей матрицы, дробностью оцифровки…
Кстати, нейросети превосходно справляются с фильтрацией шума на path-trace рендерах. Позволяя экономить киловатты и часы на рендере анимаций и статики. Вот для таких рутинных задач они идеально подходят.

В последних версиях блендера впилили интеловский денойзер и он работает превосходно, порой напоминая магию. Я не совсем понимаю как именно он работает но на его вход подается не только картинка, но и карта нормалей. Которая, видимо, подсказывает алгоритму как нужно фильтровать каждый участок.
Марсианский сфинкс без всяких нейросетей получился.
UFO just landed and posted this here
Отличная статья, отрезвляющая. Спасибо!
PS: Не думали над переводом на английский язык? Есть ощущение, что «стрельнет» хорошо.
Чего в неё отрезвляющего?
Вы всерьез думали, что нейрость понимает по ЧБ картинке какой там был исходный цвет?
ДАже автор упомянутого оцветнения прибытия поезда в своей статьей прямым текстом говорил, что сеть делает вывод о возможном цвете предмета на основе его формы и положения.
Нет, я всерьез не думаю так. Но как показывает моя практика общения с другими людьми, они часто рассматривают нейронные сети как «серебряные пули» для всего и везде.
Такие статьи помогут им немного задуматься.

Вы как-то странно воспринимаете нейросети, как такого "универсального мудреца", который всё знает. Но нейросеть — это не один гуру. Это скорее соцсеть для студентов, их много, и что-то они умеют, но только то, чему их научили.


Посадите толпу не очень грамотных студентов раскрашивать фотографии — будет тот же эффект: "эта машина, наверное, была красная". Чтобы понимать, что эта машина должна быть чёрной, студенты должны разбираться в истории автомобилей тех лет.


Если нейросеть обучить на таком сете, научить разбираться в ретромобилях — будет нормально красить. То же самое с раскраской статуй или архитектурными деталями — если нейросеть научить распознавать архитектуру, автомобильные детали и логотипы, она справится. И обезьяна в фаре — это, в целом, правильно, нейросети, скорее, "мерещится" там обезьяна, чем какие-то непонятные полоски или логотипы.


Так научили, а без специфических навыков можно и кошку принять за пакет, и жену за шляпу.


А то, что mail.ru сделали к 9 мая — это просто массовая игрушка к празднику, не стоит ожидать от неё серьёзных, исторически достоверных результатов. Для этого нужны не студенты, а грамотные историки. Т.е. соответственно обученная нейросеть.

А как вы планируете обучить нейросеть? Где вы найдёте достаточный датасет, в котором будут те самые правильные цветные фотографии?
Вы как-то странно воспринимаете нейросети, как такого "универсального мудреца", который всё знает.

Я — нет.


Но я общаюсь с людьми, которые не понимают принципов работы цифровых технологий и связанных с этим сложностей.


А ещё, я понимаю, что через 10-20 лет, никто уже и не вспомнит как именно была создана та или иная фотография или фильм.


Сейчас мы общаемся со старыми фотографиями (которые, конечно же, очень сильно не идеальны), а в будущем "семейный архив" будет* состоять из фотографий с наложенными фильтрами.


Я на эту ситуацию смотрю как историк, а не как кинозритель.


Ну а как кинозритель, я в большом восторге. :)




    • как показывает практика, утверждение о том, что наши электронные фотоальбомы будут сущестовать через 10-20 лет является излишне смелым и оптимистичным :(

UFO just landed and posted this here
Но никто же не печалиться, что в портртной живописи куча искажений фантазий и так далее.

Полагаю, что по этому поводу много кто печалится :)

UFO just landed and posted this here
Увы кроме голографии (за вычетом цвета) точное запечателние всех деталей оптического мира не возможно.

Да, но ровно до того момента, пока эту голографию не прогонят через нейросетевой реставратор голограмм :)

UFO just landed and posted this here

А раскрасить?
А резкости добавить?
А fps увеличить?


Опять же, без кадрирования под пропорции нового голофона.


Вобщем, не будьте слишком скептичны.
Верьте в людей.


Непременно найдутся люди которые "улучшат" старые голограммы так чтобы "угождать различным мелочным требованиям публики". :)

Вот по «Дружбе народов» сразу видно, что нейросети обучались на старых пленочных фотографиях. Потому что во всех вариантах цветовая гамма а-ля 1960-е (именно под тогдашнюю пленку).

Поэтому, как говорится — на чем обучили, то и получили.
UFO just landed and posted this here
Человек который видит исходник, результат и не знает ничего кроме слова «нейросеть» — воспринимает всё как магию. Вполне может считать, что «магия» позволяет узнать реальный исходный цвет. На то она и магия.
Здравствуйте, я представитель зарождающегося сообщества нейроколористов, выкладываю свои видео здесь.

По теме вашего недовольства коверканьем истории, мне нечего сказать, это личное дело вкуса в какой форме потреблять контент.

По фактической части: вы используете легко доступные инструменты, не требующие возни. И делаете выводы о текущих возможностях по технологиям трёхлетней давности.

Вот мой аргумент. Ч/б это исходный кадр, цветной это вытащенная картинка. (цвет черновой, смотрите только на разницу в четкости).

image

Полный кадр

image

Главный посыл автора, как я понимаю, не в том, что улучшайзинг плохой и не нужен. А в том, что результаты улучшайзинга могут заменить оригиналы.
И каким бы не был хорошим улучшайзинг исходную информацию он может только терять. В случае утраты оригиналов новым, боле улучшенным улучшайзерам будет просто не с чем работать.

Почему вдруг могут смешаться true-архивные копии и производные медиа? Архивы, архивами, а производный контент отдельно.

не знаю
но индустрия звукозаписи, увы, знает примеры

Данные в архивах не из воздуха берутся, а «находятся в поле». Если всё «поле» будет завалено производным контентом, на котором не написано, что он производный и нет ссылок на оригинал, то он рано или поздно начнёт просачиваться в архивы наравне с оригиналами.

Так ведь нет никаких архивов, точнее, их не будет тогда и в той области, когда и где они понадобятся. Об этом автор в 0 главе сказал прямым текстом.

Почему вдруг могут смешаться true-архивные копии и производные медиа? Архивы, архивами, а производный контент отдельно.

Вы удивитесь, но "true-архивные копии" существуют в исчезающе малом количестве и расчитывать на них не стоит.


У музейщиков просто в книге написано кто и когда передал в музей ту или иную железку или документ.


А в госархивах рядом с официальной отчётностью лежит дневник директора.


Архивы, архивами, а производный контент отдельно.

А семейные архивы и мемуары это "архивы" или "производный контент"?

Ниже уже писали про звукозапись, и там реально такое происходило не раз:
1) Пожар на складе матриц для изготовления винила — матрицы утеряны, самих мастер-лент не сохранилось увы.
2) Объединение студий звукозаписи, переезд, раздолбайство. Как результат — утеряны мастеры и матрицы. Иногда эти утери всплывают на распродажах вида «купил складскую ячейку, а там оборудование и прочее от студии, которой уже 40 лет не существует»
3) Кража, пиратское издание, после которого те, кто украл исходные матрицы их уничтожают, чтобы уже никто не переиздал
4) Пункт 2, но с изменениями, переезд, раздолбайство, ленты и матрицы хранятся в таких условиях, что приходят в полную негодность к дальнейшему использованию.
5) Новые технологии, переписываем с аналога на цифру (актуально для такого процесса в 80х годах), цифровые копии храним на ленте в фиг знает каких условиях. Аналоговые записи естественно после копирования уничтожены.
Во всех этих случаях true-архивные копии уже не существуют, максимум того, что может студия — сделать производные медиа.
UFO just landed and posted this here
Например мы подаем на вход размытое фото машины, программа распознает модель, в базе данных находит

Это совсем другой процесс, не имеющий никакого отношения к обсуждаемому "мы обучили нейросеть на ведре картошки и теперь она красит все автомобили в цвет грязи".

В ваших рассуждениях есть два слабых места:
1) наличие в базе чертежей
2) вера в то, что в процессе производства, или нелегкой жизни образец не был без всякой исполнительной документации доработан напильником.

UFO just landed and posted this here
Что нейросеть способна реалистично синтезировать изображение. Если на фотографии машины отсутствует кусок, но нейросеть зная как должна выглядеть именно такая машина дорисовывает этот кусок, является ли это искажением фактов для наблюдателя?

Именно, "реалистично синтезировала", а не показала реальность. И до тех пор, пока результат работы нейросети используется исключительно как иллюстрация, без цели делать по ней далеко идущие выводы — всё замечательно. Если дорисованную нейросетью картинку пытаются использовать как источник фактов — могут быть проблемы.


Ну и абстрактному вопросу абстрактный ответ: зависит от целей, которые преследует наблюдатель. Если нейросеть, утрирую, вмятины и потёртости которые были в оригинале уберёт, а наблюдателю наличие или отсутствие этих вмятин необходимо для каких-то выводов и действий — да, таки искажение.


Никто же не говорит, что нейросетки зло, что мутная старая картинка всегда лучше чёткой и т.п. Но тут вопрос совсем не во вкусе, а в том, что есть факты, а есть дорисованная картинка. Есть "потребление" контента, а есть "анализ" контента. И если для первой задачи сеточки почти определённо благо, для второго — не всё так однозначно. И автор про это очень метко напомнил.

Система распознавания натурального и синтетического контента уменьшит хаос?
Условно, если нейросеть на фото 1945 года дорисовывает бомбе «На Берлин!», то это терпимо. Если она дорисует то же самое к фотографии из Ливии-Сирии-Украины, то возникнут вопросы, причем потенциально — вплоть до политического скандала. А в способностях нейросети понимать контекст есть некоторые сомнения.
Политика здесь для примера, а так потенциальные недоразумения могут быть любого характера. Хоть медицинского, хоть детективного, хоть личного.
Ваш пример не очень, так как нейросети обычно (обычно!) обобщают представление о типичных признаках чего-то. На бомбах не так часто пишут что-то подобное. Пример комментатора выше про вмятины более чем корректен. Индивидуальные детали сверх общих нейросеть может дополнительно только придумать, если это отдельно будет прикручено со специальном умыслом.

Но. Так как пока работа со смысловым контекстом ни черта не развита, нейросети дорисовывают только усредненные типичные признаки. Дорисовывание какой-то непонятной хрени обычно является проблемой для разработчика, а не классной фичей.
Дорисовывание какой-то непонятной хрени обычно является проблемой для разработчика, а не классной фичей.

В первую очередь, это проблема для будущих потребителей.


Морда в фаре в глаза вообще не бросается и её можно сразу не заметить.


Удалённая штуковина рядом с фонтаном — из той же оперы.


А через 50 лет, по этим фотографиям могут начать реставрировать реальные фонтаны и автомобили. Может даже раньше.

Было бы честно заменить слово «реалистично», на более точный термин — «няшно». Посмотришь — и глаз радуется. А вот кому-то не надо няшно, а надо вот именно как было.
А что доказывает ваш «аргумент»?

Что людям связанным с историческими (и не только) исследованиями нужно понимать с чем именно они имеют дело.

Ну давайте посмотрим.
Мужчина на берегу. На «реставрации» — это кряжистый мужик, похожий на лопатобородого и в головном уборе, смахивающем на кепку с жестким козырьком. Этакий «кулак» из советских фильмов. Лицом почти к нам. В оригинале — это средней комплекции мужчина одетый «цивильно»-по-европейски, в пальто и шляпу. Глядит на лодку.
Человек на лодке. На «реставрации» — это юноша в пилотке, повернутый к нам затылком, судя по напряженной позе, всматривается, не спрятался ли кто-то за той белой штукой под навесом. В оригинале — скорее сухощавый старик, в шляпе, спокойно смотрящий на мужчину на берегу.
Разница в направлении взглядов до реставрации и после — пи/2 для одного и пи/4 для другого, в сумме почти полный угол.
Так в чем тут «улучшение»?
(Страшно представить, если такой улучшатель будет встроен прямо в камеру, как добавка к «цифровому увеличению», и кто-то использует такую картинку в криминалистической, скажем, экспертизе.)
UFO just landed and posted this here

Это давно она неотключаема? Отдельный режим Portrait, в нём и замыливание фона, и дорисовка освещения, и все радости нейропроцессора на материнке, а переключаешь в простой Photo — и снова всё уныло и однозначно.

Страшно представить, если такой улучшатель будет встроен прямо в камеру, как добавка к «цифровому увеличению»
Кроп с опубликованного сегодня на Mobile Review теста Galaxy S20 Ultra:
image

Это в каком-то видео?


Можно ссылочку?


Спасибо

По теме вашего недовольства коверканьем истории, мне нечего сказать, это личное дело вкуса в какой форме потреблять контент.

У меня нет недовольства.


У меня печаль и обеспокоенность.

В данном примере на ч/б фрагменте за лодкой по центру просматривается силуэт человека, стоящего спиной, а в цветном варианте его нет. Интересно, был ли там человек в реальности
Статья полезная, безусловно. Понятно, что нейросети много отсебятины вставляют. Но потихоньку ситуация исправляется.

А вот последний пример, с видео, некорректный. Почитайте, что такое «motion blur» и «правило 180 градусов». Не ставится задача сделать промежуточный кадр максимально чётким, просто смаз на видео должен выглядеть наиболее естественно для глаза. Именно этого и добились разработчики DAIN.
Не ставится задача сделать промежуточный кадр максимально чётким, просто смаз на видео должен выглядеть наиболее естественно для глаза.

Именно об этом и речь.


С помощью нейросетей делают видео которое будет легко восприниматься в виде видео.


Но раньше, это был просто набор фотографий, которые можно было рассматривать по отдельности.


А теперь это именно видео, и каждый отдельный кадр перестаёт быть самостоятельным документом.


А для меня проблема именно в этом — в процессе улучшения потребительских характеристики фото или видео, происходит искажение исторического источника.


Поэтому, надо крепче держаться за бэкапы и понимать, что "улучшенная" фотография это всего лишь копия созданная для решения какой-то текущей задачи.


Оригинала она всё равно не заменит

Кстати говоря, а насколько достоверно нейросеть, обученная на идеальных автомобилях 20-40 годов (т.е. более-менее правильно угадывающая цвета, эмблемы и прочие детали авто) сможет улучшить скажем фотографию машины Бонни и Клайда, которая изрешечена пулями? Не удалит-ли она те самые пулевые отверстия?

Интересный вопрос.


По идее, дырки от пуль не всегда можно будет отличить от повреждения поверхности фотографии.


А если фото совсем мелкое, то алгоритм запросто может разгладить, сочтя за незначительные отклонения.


Я делал тесты на фотографиях мотоциклов из того же зала. Уменьшал картинку, а потом "улучшал". После улучшения разглаживало даже то, что на уменьшенной картинке было различимо.

«было различимо» — вы же понимает что это фактически означает?
Было различимо — это когда нейросеть в вашей голове понимает, что вот эти пиксели — это решетка радиатора, а вот эти — дырки от пуль.
Вполне естественно что современные нейронки не настолько хороши, чтобы увидеть на изображении больше деталей чем может увидеть мозг.
Да и задача у них совсем другая — сделать изображение более «приятным», а никак не «восстановить то, что не может увидеть человек»
Было различимо — это когда нейросеть в вашей голове понимает, что вот эти пиксели — это решетка радиатора, а вот эти — дырки от пуль.

Конечно, я врое бы даже пару раз в тексте написал (если не удалилось при правках) что нейросеть и человек работают по сходным принципам


Да и задача у них совсем другая — сделать изображение более «приятным», а никак не «восстановить то, что не может увидеть человек»

Да, и они в своём праве.

В целом все ок, но в статье сказано, что обесцвеченное фото нельзя восстановить на основании только фотографии, что неверно. Теоретически это возможно, просто очень сложно. Человек может догадаться об оригинальном цвете, используя свои знания; в фото может быть зашифрован оригинальный цвет и так далее. Также можно угадать оригинальный цвет или перебором создать все возможные варианты.
Человек может догадаться

В том то и дело, что только "догадаться" и предположить как оно могло бы быть.

Судя по комментариям, статья написана не зря.

Краткий пересказ статьи. "Пытаюсь забить шуруп молотком. Видимо с молотком дом не построить..."
НС один из инструментов, который может помочь в принятии решении. Что мешает использовать использовать несколько?
Если задача ответственная и потери ошибки велики, можно просто предоставить на верификацию человеком.

Пытаюсь забить шуруп молотком. Видимо с молотком дом не построить...

Я этот момент отдельно оговорил в тексте, что я понимаю что делаю.


Но многие не понимают, их много и они активно пользуются указанными в тексте сервисами не по назначению.

> Но многие не понимают, их много и они активно пользуются указанными в тексте сервисами не по назначению.

На них льётся мощный поток хайпа от маркетологов нейросеточных стартапов и слепо-восторженных технофанатиков типа тех, которые понабежали здесь в комментариях, даже не удосужившись прочесть статью глазами.

Т.е. чисто гипотетически мы имеем в распоряжении отретушированную веками наскальную живопись и должны быть осторожны в попытках дальнейшего "восстановления" оной нейросетями?

Если разрешение фотографии хорошее, а хроматическая коррекция объектива плохая — можно попробовать восстановить цвет из картины аберраций.

Увеличивал фотку пейзажную для широкоформатной печати на стену, на letsenhanse, получилось изумительно хорошо.
За счёт придумывания нейросетью деталей фото выглядело натурально.
Так что если пользоваться по назначению, то почему бы и нет.
Так что если пользоваться по назначению, то почему бы и нет.

Тут как и во всех прочих случаях


"Нейросеть сделала очень правдоподобную картинку" это одновременно и плюс и минус, в зависимости от ситуации.


Плюсы — понятны и неоспоримы.
Большие риски в виде каких-нибудь подделок — так же понятны.


Но есть риски связанные с массовым использованием не по назначению, без осознания проблемы и с последующим замещением "оригинальных изображений" на "улучшенные копии".


Это неизбежный процесс, но если его осознавать, то можно попытаться снизить риски для самого себя.

Проблема, о которой пойдёт речь, возникает из-за того, как именно работают реальные историки и нейросети.

Нет. Проблема возникает из-за того, как именно работают реальные историки. Приписывать сюда нейросети — это обвинение скамейки в том что ты об неё споткнулся и упал.

Хотя, есть способ доступный всем людям, независимо от профессии — перестать называть процесс создания легкоусвояемого медийного контента словами «восстановление» и «реставрация», чтобы не создавать у непосвящённых ложного впечатления о сути этого процесса и получаемого в результате продукта.

Хотя я безусловно поддерживаю правильное использование слов, однако как именно подобный способ поможет историкам решить проблему — непонятно. Может, следует просто рассказать историкам как работают нейросети?

Энциклопедический словарь Брокгауза и Ефрона: Том XXVIА, стр. 624

Опубликовано в ТЫСЯЧА ВОСЕМЬСОТ ДЕВЯНОСТО ДЕВЯТОМ году.

Как видим, эта проблема известна не первое тысячелетие и была актуальна уже во времена появления оригинального фильма «Прибытие поезда».

Из существования определения слова "ретушь" в словаре от некоего года никоим образом не следует существование, известность и актуальность описанной проблемы. Для подобного утверждения нужны другие аргументы.
Приписывать сюда нейросети — это обвинение скамейки в том что ты об неё споткнулся и упал.

Ух, я куда-то вписал обвинения в адрес нейросетей?


Дайте конкретную цитату — обязательно поправлю.

Ух, я куда-то вписал обвинения в адрес нейросетей?

В моём комментарии нет утверждения о том, что в статье обвиняются нейросети; это вы себе вообразили.
Я так понимаю, Вы текст вообще не читали :)

Из того факта, что я в контексте «Предложенное вами решение неработоспособно, вот пример работоспособного решения» повторил утверждение, использованное вами в статье, нельзя с гарантией утверждать что я читал либо не читал статью. Вероятность случайно повторить утверждение из статьи не читая её гораздо ниже, чем вероятность повторить утверждение из статьи, которая была недавно прочитана — потому что случайное совпадение мыслей двух людей маловероятно.
повторил утверждение, использованное вами в статье, нельзя с гарантией утверждать что я читал либо не читал статью

Вы не повторили моего утверждения, Вы задали вопрос.


А то самое моё утверждение является на него ответом.


Вероятность случайно повторить утверждение из статьи не читая её гораздо ниже, чем вероятность повторить утверждение из статьи, которая была недавно прочитана

То что Ваш вопрос совпал с одним и утверждений в тексте, это не случайность и не совпадение.


Я просто учёл наиболее очевидные вопросы и возражения и заранее дал на них ответы.


Ага, я просчитал Вас комментарий задолго до того как Вы его написали. :)

Может, следует просто рассказать историкам как работают нейросети?

Я так понимаю, Вы текст вообще не читали :)


image

Это случайно не та самая очень редкая хохлатая черная макака — обезьяна, из-за которой был скандал с авторским правом на фото? Нейросети стоило бы аккуратнее относиться к юридической стороне вопроса :).

Не.


Та была волосатей и менее носатая.

А разве нельзя вычислить как каждый цвет ведет себя при запечатлении на ч/б пленку и уже от этого делать восстановление? Красный и желтый наверное будут отличаться в ч/б?

42
Угадайте, какие три числа я сложил, чтобы получить 42
ps:
на самом деле складывал я пять чисел, а если ещё точнее — интегрировал функцию, но нужный ответ состоит из трёх

Нельзя, и в этом вся суть проблемы.


Суть процесса обесцвечивания описывается формулой:


к1КРАСНЫЙ+к2ЗЕЛЁНЫЙ+к3*СИНИЙ=СЕРЫЙ


Это как посчитать сумму всех цифр в трёхзначном числе — эту операцию невозможно обратить.


В принципе невозможно.

к1КРАСНЫЙ+к2ЗЕЛЁНЫЙ+к3*СИНИЙ=СЕРЫЙ

Все ещё хуже: в конкретной точке искомый СЕРЫЙ это интеграл от произведения функции чувствительности пленки на спектральный состав света, взятый по интервалу с заходом в ик и уф.
Плюс ещё особенности работы оптической системы, если смотреть не на 'пиксели', а на кадр в целом

Все ещё хуже

Это да, но всё равно основной процесс сведётся именно к множителям по каждому цвету (как то я криво формулу записал), а уже множители будут включать в себя много чего.

Если вы про конвертацию цвет -> чб, то да (у вас просто нет другой исходной информации, которую можно было бы использовать).
Если про процесс формирования изображения на ч/б пленке, то там в принципе нет RGB по отдельности.

(на будущее.)


Идея про то, что видео это набор фотографий верна для киноплёнки и не совсем верна для многих современных видеокодеков — там есть полные опорные кадры, но между ними кадры с частичным перерисовыванием картинки.


То что их можно разложить в отдельные фотографии, не означает что они являются таковыми внутри видеофайла.

Это так, но для целей апскейла, например, не важно.

Это важно для целей "поговорим о точности формулировок при описании того что делают нейросети" :)

Да, всё верно — это морда обезьяны.

А, по-моему, это не обезьяна, а человеческое лицо. Наверняка ту нейросеть обучали на множестве фотографий людей (а не обезьян), вот ей и «мерещатся» лица. Интересно, что человеческому мозгу свойственно совершать схожие ошибки, поскольку он хорошо приспособлен к тому, чтобы распознавать лица. Наверняка многие замечали в хаотичных узорах (на линолеуме, обоях и т.п.) изображения, похожие на лица. Похожее явление — антропоморфизм: человек «видит» человеческие качества у животных, явлений природы и прочих объектов, которые, в действительности, их не имеют.

Да, на чём нейросеть обучили то она и узнаёт.


А человек или компьютер это не важно :)

В форматах хранения фото и видео нужен счётчик поколения. Оригинал имеет значение 0, каждое последующая заливка в соцсеть и т.п. увеличивает на 1. Чтобы не сами пользователи (которым это вообще не понятно) занимались поиском лучшего оригинала, но чтобы фиксация факта произошедшего искажения велась. Потом, спустя 10-20 лет можно будет хоть как-то понять, что из имеющегося более близко к оригиналу. Но ясно, что это малоосуществимо. Требуется ответственный подход от этих самых соцсетей и фотохранилищ, от создателей редакторов. Да и другие проблемы вылезут наверняка.
UFO just landed and posted this here

Это один из главных моментов данной темы — разным людям нужно разное.


Но многие этот факт игнорируют.

UFO just landed and posted this here

Да, именно в этом и была идея.


Увы, не всем понятна идея о тот, что у разных людей есть разные потреьности, а у разных инструментов — разные ограничения.


Одним использует инструменты не по назначению, другие — рекламирует такое использование, и пр.

Как исследование — довольно любопытно. Но мне не хватило пруфлинков на случаи о том, как «историк, используя нейросеть, восстановил..» или мы «часто видим новости» (где они?), «нейросеть улучшила/восстановила..», «нейросеть смогла подобрать ключ к гробнице» и т.п. Вряд ли историки используют нейросеть как достоверный/легитимный/ультимативный тул, и это боттлнек вашей работы.

Да, ссылок не хватает.


Вообще, они у меня есть и я планирую их вставить в чистовой вариант книжки.

Хорошо ещё что ситуация очевидная


А ведь может сложиться так, что чьё нибудь лицо будет вставлено в фото с места преступления.

Спасибо, очень интересно и наглядно.
Заголовок отдельно прекрасен )

В наше время, без правильного заголовка ничего не добиться :)

Sign up to leave a comment.

Articles