Как я пленки цифровал, и не только

Немного предисловия



Сначала даже мысли не было писать статью, все казалось обыденным и малоинтересным. Но к своему удивлению, занимаясь на новогодних выходных приведением в порядок фотоальбомов, с интересом заметил, что не только я решил посвятить этому полезному делу праздничное время. Соответствующая по тематике статья «Опыт создания каталога и индексации семейного фото-архива. Индексация и оцифровка фотопленок» была и на хабре. Чуть позже появилась еще одна статья «Метаданные для организации хранения фото-архива». Посему решил поделиться каким-никаким опытом, может что по крупицам кому и пригодится.



В общем-то идея отсканировать и упорядочить старые фотографии, конечно же, вынашивалась давно, на такой объем работ по сканированию старых фотопленок (больше сотни) и фотографий (тысячи) решиться непросто. Вообще еще с детства хотел, чтобы у меня были оцифрованные старые фотографии прапрабабушек-прадедушек, и вот наконец спустя 20 лет решил сподвигнуться на это дело.



Сканер



Первое, в чем был вопрос — естественно сканер. В свое время, лет 7 назад, пытался оцифровывать негативы и решил запасти пленочный сканер. Денег особо не было, выбрал что подешевле, им оказался Miktotek Filmscan 35.

По сравнению с монстрами сканирования, стоил он копейки, но и результат выдавал устрашающий. Я использовал к нему Silverfast как наиболее продвинутый софт в то время (может и сейчас). Не знаю, почему, но иногда мне при разных проходах это чудо выдавало то синюю, то зеленую фотку, то зависало все, это было непредсказуемо и очень грустно, над каждым кадром приходилось корпеть по 10-15 минут, выправляя гистограммы и осуществляя прочие танцы с бубном. Вобщем этот процесс отбил у меня охоту сканировать пленки на несколько лет, сканер так где-то и валяется.

Сейчас, обдумав все за и против, было решено следующее.
Было несколько моментов, которые надо было учесть:
  • сканировать по большей части буду не я, а родители, благо у них время сейчас есть
  • сканировать надо не только пленки, но и фото
  • сканировать надо много
  • сказочного бюджета нет


Кроме всего означенного я понимал, что сейчас пленка уже не является актуальным носителем, и поэтому скорее всего сканировать надо будет только один раз, правда может уйдет на это много времени.

Итак, пленочные сканеры отпали по двум причинам:
во-первых, предыдущий опыт показал, что за дешево нормальный такой агрегат не купить, а то, что дешево — ой, такой ад второй раз я не вынесу.
Во-вторых, покупать отдельно сканер для фоток и отдельно для пленки — тоже как-то дороговато и нецелесообразно.
Тем более, сказал я себе, если попадется что хорошее — отнесу в профессиональную лабораторию, уж на десяток кадров можно и разориться.

Посмотрев, что есть в продаже из того, что умеет сканировать кроме бумаги еще и пленку, выяснилось, что выбор невелик: или опять же заоблачные цены, или всего пара-тройка вариантов. Перерыв все работающие сразу после праздника магазины оказалось, что есть следующие приемлемые варианты:

  • Epson Perfection V330 Photo (A4, 4800 x 9600 dpi, USB 2.0, CCD,Film Adapter)
  • Epson Perfection V370, Photo (A4, 4800x9600 т/д, CCD, USB 2.0)
  • Canon CanoScan LiDE 700F (A4 9600х9600dpi 48bit CIS Слайд-адаптер USB2.0)
  • Canon CanoScan 5600F (A4 4800х9600dpi 48bit Слайд-адаптер USB2.0)


Остальное было или слишком дорого, от 10000, или, наоборот, ничего не умело. К сожалению, CanoScan 5600F отпал по причине отсутствия в данный момент в продаже, хотя по описанию очень неплох. Остальные оказались, по отзывам, примерно одинаковыми, но решающую роль сыграл тот факт, что для Epson'ов были драйвера для Linux, а поскольку хотелось бы работать не только под виндой, то в конце концов выиграл Epson Perfection V330 Photo. Нигде не смог узнать, чем же 330 модель отличается от 370, но поскольку линуксячьи драйверы упоминались только для 330, то остановился на нем, так сказать, «во избежание».



Драйверы берут на сайте AVASYS.

К сожалению под линукс попробовать еще не успел, но в виндовом софте понравилась функция удаления дефектов — на черно-белых старых фотографиях работает на ура. Но с ней тоже надо быть осторожным — иногда может за дефект посчитать что-то стоящее.

В отзывах по поводу сканера местами упоминается проблема с появлением полос при сканировании пленок — но я такого пока не наблюдал. Тем не менее на мой взгляд вот кое-что полезное по этому поводу, найденное в одном из отзывов на яндекс-маркете: «Спустя два года могу отчитаться об итоге расследования: в рамке сканера есть калибровочное окошко, где устанавливается баланс белого. Если туда попадают пылинки — получаются „битые пиксели“, которые при прогоне каретки дают полосы. Это, скорее всего, конструктивный дефект новой светодиодной подсветки (но кто же в этом сознается...). Итак господа, если у вас есть такой сканер,
удаляйте пыль.»

С каким разрешением сканировать — этот вопрос был не последним. Сканер выдает максимум 4800х9600, но при попытке выставить такое при скане фото 9х13см система стала материться на масштаб, пришлось уменьшать.

Критерий выбора разрешения простой: если считать, что печатать можно со стандартным разрешением 300dpi, то чтобы получить такое же изображение, надо иметь минимум 300dpi. Учитывая, что фото старые, то смысла сильно завышать эту цифру нет — все равно физическое разрешение не позволит получить качество из ничего. Опять же, вряд ли кто-то когда-то захочет печатать плакат с изображение прадеда на формате А1 или даже А4. Если кто и напишет книжку — то вряд ли будет картинка больше чем на лист. Вобщем решил, что для совсем старых сойдет двукратное превышение, для более качественных и более поздних — трехкратное, т.е. 600dpi и 900dpi соответственно. Далее выбрал то, что было наиболее близко из того, что выдала софтина, что шла со сканером.

Для негативов решил использовать максимум — не зря же покупал с таким разрешением… Скорее всего это перебор 4800х4800dpi, но всегда можно потом урезать, но главное, что потом уже не придется пересканировать с другими параметрами и можно спать спокойно.

Сканы сохраняются, естественно, ни в коем случае не в jpeg, дабы избежать потерь на сжатие. Все — только tiff. Вроде, конечно, место кушает побольше, но зато раз отсканировать — и потом проблем не знать: что хочу, то и делаю. К этому я тоже пришел не сразу, но практика показывает, что если сэкономить сейчас — потом буду жалеть и возвращаться к этому вопросу, а так, если все по-максимуму — то потом и сожалеть не о чем.

Каталогизация



Естественно, после оцифровки надо все это дело как-то разгребать. Основной задачей было подписывание пра-пра-родственников, ибо я хотел сохранить историю семьи на будущее, а без грамотных комментариев там никто никогда не разберется.

Вариант сразу обрабатывать фотки и выкладывать на сайт не подходил по двум причинам: во-первых, надо обработать все и сразу, а это время, да и родители в этом ничего не понимают; во-вторых, технологии меняются, и кто б знал, как через пару десятков лет будет выглядеть сайт, если вообще он будет как-то существовать.

Использование умной программы-каталогизатора не подходила по той же существенной причине — нет никакой гарантии, что через несколько десятков лет эта софтина будет жива и соотвественно никто не поймет, что, где и как хранится в ее умном уникальном формате.

На ум пришло решение хранить описание в обычном текстовом файле с тем же именем, что и фото — текст он и в африке текст, наверняка прочитать сможет кто угодно спустя десятиления, даже если придумают еще какой-то супер-юникод, все же это намного надежнее, чем специальный софт. Но как программист я с ужасом смотрел на этот вариант — ну некрасиво и все тут. Да и неудобно в процессе работы.

Родители сказали, что вообще хотят как в ворде — вот фотка, вот подпись — и все понятно. От такого предложения волосы встали дыбом, ибо опять же — сегодня ворд есть — завтра его нет.

Еще один вариант — хранить подписи в EXIF. Тут смущало то, что при обработке картинок многие софтинки EXIF просто игнорируют, в результате потерять драгоценные подписи может оказаться невосполнимым.

В общем, проанализировав всю ситуацию, принял решение: скнируем фото, подписываем его в виде EXIF и потом все эти картинки с подписями делаем read-only, дабы не было никакого соблазна что-то менять, и таким образом гарантируем сохранность информации. Хочется менять — делай копию — и вперед. Ну и бэкапы конечно. И вообще, в конце концов на то мы и программисты, дабы набросать небольшой скриптик, чтоб весь EXIF можно было на всякий случай экспортнуть в текстовый файлик, «во избежание» :)

Для работы с EXIF в линуксе есть куча инструментов командной строки, но это неприемлемо для удобной работы с большим количеством картинок. Тем не менее, вот что есть: exif, exiftool, exiv2, погуглив, можно найти более подробную информацию. Далее я использовал exiftool для пакетной обработки, но об этом позже.

Смотрим, что есть из GUI. Поизучав, что нам предлагает OpenSource сообщество, как-то остановился на DigiKam — «digiKam is an advanced digital photo management application for Linux, Windows, and Mac-OSX», как написано у них на сайте.
Редактировать я решил в GIMP, GNU Image Manipulation Program, аналог фотошопа, но opensource. Поэтому возможность редактировать фото для софтины каталогизации отдельно не требовалась, а вот в самой каталогизации подкупили несколько вещей.



Во-первых, DigiKam редактирует EXIF, что мне и надо.

Во-вторых, все фото сразу на экране, подписываем в окошке рядом и сразу переходим к следующей — быстро, просто и удобно.

В-третьих, было замечено, что в самой EXIF есть несколько похожих тэгов для комментирования: Comment, UserComment, ImageComment, так вот, DigiKam пишет сразу во все, так что вероятность, что эту информацию прочитает другой софт, достаточно велика.

Кроме того, читая отзывы, меня порадовала мысль, что кроме просто EXIF софтинка умеет вести каталог, причем ничего никуда не копируя, в отличие от многих других, а просто обрабатывая все на месте. Это было огромным плюсом — я не искал эту возможность изначально, но она оказалась как нельза кстати. И что мне понравилось — кроме занесения инфы в EXIF, она пишет ее в свою базу и потом фото удобно сортировать и искать по меткам, тэгам, описаниям и т.п. И даже если в какой-то момент софт исчезнет и база тоже — то копия данных останется в EXIF, что, собственно, мне и надо.

Некоторые интересные мысли по каталогизации описаны в уже упоминавшейся статье «Опыт создания каталога и индексации семейного фотоархива. Индексация и оцифровка фотопленок». Так вот, все или почти все эти данные тоже можно держать в EXIF и при необходимости экспортить в любой формат, как нам будет удобно.
Дополнительным плюсом DigiKam является то, что можно в качестве обложки альбома можно выбрать любое фото, а мысль иметь в качестве обложки фото самого бумажного альбома мне понравилась, за что спасибо автору.

Еще один неочевидный момент, с которым я столкнулся при работе с DigiKam: если нет прав на запись в фото-файл, то софтина молча пишет только в свою базу, никак не давая понять, что есть проблемы. Я долго пытался разобраться, почему подпись в проге есть, а в файле — нет, тем более, что в настройках установлена опция «сохранять в файле». Так вот, имейте это в виду — проверяйте права доступа, а то можете потом долго материться.

Выкладываем на сайт



Итак, решены основные задачи — сканирование и каталогизация. Теперь настало время похвалиться перед родственниками, показать знакомым фото. Естественно путем выкладывания фото на сайт. Не так давно я уже делал софтинку для этого дела: сложил нужные фото в
каталог, запустил — и готово, сделался альбом. Об этом я писал на хабре в прошлый раз, «Simple automation: фотоальбом». Теперь же, используя DigiKam, я решил, что прямо в EXIF-тэгах можно помечать фото, надо его помещать в фотоальбом или нет, поскольку при сканировании были всякие картинки, которые на сайт выкладывать не стоит. Да и комментарии теперь можно брать из EXIF.

Вроде бы все хорошо, да не очень.

На сайте все обрабатывается в PHP, и там есть, как мне казалось, замечательная функция для работы с EXIF, read_exif_data(), но как показала практика, эта недофункция показывает только часть данных, абсолютно умалчивая про остальное. Перерыл все что мог — и мечта о легкой жизни канула в лету, пришлось вытаскивать EXIF из файлов на этапе генерирования альбома, благо инструменты командной строки имеют место быть.

В итоге переписал скрипт, вспомнив язвительный комментарий к предыдущей своей статье «Генератор php-файлов на Perl… Месье знает толк...», посмеялся про себя, что все же был прав, что полностью не положился на PHP — вот она мне подставила бы сейчас ножку, а так пара минут — и проблема решена.

Итак, при обработке фото в DigiKam помечаем фото флажком (он там называется PickLabel). Флажок пишется в файл в EXIF. Когда процессим все файлы из каталога — вытаскиваем флажок с помощью exiftool:

  $flagPickLabel = `exiftool -b -PickLabel '$fname_in'`;


Ну и далее в зависимости от флажка — если стоит — то процессим, если нет — пропускаем. Все задается в командной строчке, дабы было удобно. На самом деле тут можно обрабатывать много всего, это уже на вкус и цвет кому что надо.



Ссылка на исходники, если вдруг кому-то понадобится внимательно посмотреть или даже применить: photo_album-r143.tar.gz. Как пользоваться — упомянуто в предыдущей статье, не буду повторяться.

На этом спасибо за внимание, а если кому пригодилось — то безмерно рад.
Критика приветствуется.

UPD: Вот случайно нашел еще на хабре про сканирование негативов — удивляюсь, как раньше не заметил. Пусть будет тут до кучи.
Share post

Comments 46

    +1
    Почему tiff, а не png?
      +1
      Как минимум родной драйвер сканера предлагает без проблем сканировать многостраничные документы в один TIFF, например фото с лицевой стороны и оборотная сторона с подписью, что удобно.
      Ну и вообще как-то даже мысли не было использовать PNG — Portable Network Format — в качестве основы под фото. Хотя да, и глубина цвета имеется, и сжатие без потерь. А википедия говорит так: «TIFF useful as a generic format for interchange between professional image editing applications». Так что вроде само напрашивается использовать именно этот формат.
      0
      У меня к примеру Epson V100 — такой-же как показан на картинке — Вы какой выбирали TIFF — обычный или мульти — там несколько видов.
        +1
        Обычный — если фото с одной стороны, и мульти — если сканил переднюю и заднюю сторону — чтоб в одном файле две картинки держать.
          0
          Насколько оправдан выбор TIFF? Я вот сканил плёнки до до того как прочел Вашу статью в JPG (Compression level 16). Теперь думаю, блин, а может зря :)
            0
            Однозначно не JPG, поскольку там сжатие с потерями, а терять данные очень не хочется. Да, размер на порядок может получиться больше, если в TIFF, но место сейчас вроде не проблема. А если сначала JPG, потом захочется большего — придется опять переделывать. Зачем эти пляски, если можно сразу по-максимуму? Я изначально поплясал так, переделывал и так, и этак, хотя знал, что потери в JPG есть, в результате плюнул и решил, что спать спокойно и не париться мне дороже, чем постоянно думать, что все плохо ;)
              +4
              Ну в принципе это оправданно если негативы качественные. А если пленки отщелканы на мыльницы в 90-е — то там что jpg, что tiff, что гиф :)
                0
                Обычно все оказывается хуже: отсканировали в JPG — потеряли качество. Отредактировали и сохранили — остался JPG — значит еще потеряли. И так с каждой записью все теряется и теряется качество картинки.
                  +3
                  Ну я слышал и более радикальную мысль — jpg теряет в качестве при каждом просмотре файла :)
                    0
                    eaa прав, перефразирую его комментарий: если вы сканируете в jpeg, то больше с этим файлом вы ничего сделать не сможете, вы просто положите его в архив, и всё. Если же вы будете сканировать в формат без потерь, то, при необходимости, в любой момент, сможете отредактировать фото.
                      –2
                      Да что за бредовые предубеждения против JPEG? Чем он так провинился то? Если бы не JPEG то как бы вы картинки в 90х по модему скачивали? в TIFF что ли?
                      В JPEG есть коэффициент компрессии от 1 до 100, пожалуйста играйте им в широких диапазонах. Не хотите терять качество при пересохранении — сохраняйте с тем же самым коэффициентом. Выберите коэффициент 95 и вообще никогда не увидите разницу между tiff и jpeg.

                      Хотя самое смешное что и tiff позволяет компрессировать жепегоым кодером.
                        0
                        Может Вы удивитесь, но он ни в чем не провинился и я лично его замечательно использую для тех же фоток, сконвертив их оригинального TIFF, урезав размер, разрешение и выставив приемлемую компрессию и выкладывая потом результат на сайт. Просто разный формат — для разных целей.
                        0
                        Не очень понятно почему не сможете? Что может вам помешать? Артефакты сжатия на максимальном качестве? Не смешите мои тапки! Возможно, при неблагоприятном стечении обстоятельств, вы, возможно, даже сможете их увидеть на определённых участках изображения. Но помешать редактированию…
                    0
                    Для меня, как оказалось, это оправдано больше психологически — отсканировал — и забыл, больше к этому вопросу не надо возвращаться. Тем более если вдруг уж совсем припрет и места не будет — я всегда смогу в автомате в JPG пережать. В случае же JPG в TIFF его не поможет превратить никакое заклинание — только пересканировать. А оно Вам надо?
                      0
                      Как я понял из статьи 600-900dpi и так с головой перекрывает качество фотографии. Т.е. при сканировании они как бы пересэмплированны.
                      Плюс ко всему есть шумок матрицы, пыль, еще какие искажения.
                      Так зачем все хранить в сыром tiff?

                      На мой взгляд JPG с хорошим качеством, например 90, значительно удобней как по размеру так и по работе с разными программами.
                      Смысловую наргузку фотографии такая компрессия не повредит, а цифровой шумок погасит.
                      Поиграя с настройками можно достичь компрессию в 2-10 раз при том же самом качестве картинки.

                      Хотя с другой стороны, производители жестких дисков вам благодарны :-)
                      Ведь вы своими советами создаете новые рабочие места.
            +1
            Кстати, а сами негативы Вы промываете и высушиваете перед сканированием или нет? Можно подробнее о процессе удаления пыли и так далее.
              +1
              Нет, не стал заморачиваться — где-то в отзывах читал, что кто-то пробовал мыть — но это уж очень напряжно получается. Я просто фетровой тряпочкой протираю стекло от пыли, кисточкой с резиновой грушей сдуваю пыль с нужного участка пленки — и все. Если кусок пленке стоит в пленочном адаптере — это довольно удобно проделать.
              +1
              Статья интересная, хорошо про сканеры написано… Но меня немного смутило вот что. Для тех, кто живет в крупных городах, не составит особого труда, и стоимость будет меньше, если отдать все эти пленки в фотолаб или фотопроект. Для тех у кого таких контор нет в городе конечно стоит задуматься о собственном сканере. Но для москвичей, в качестве примера, наиболее качественный и дешевый метод — это именно фотолаборатории. Как минимум — можно выбрать сканер, заказать обработку (цветокоррекцию), сделать индекс-принт ну и порезать пленку ;)
                0
                Ну как бы это недешевое удовольствие в фотоателье. В Украине примерная стоимость — 1,5 грн за снимок в среднем разрешении. То есть примерно 20 центов. Следовательно одна пленка на 36 кадров — 7,2 доллара. Вот считайте, если дома лежит пара десятков пленок — дешевле купить бюджетный EPSON. Единственно что, это время жалко.
                  0
                  Скан размером 10х15 — 210р. за пленку.
                  Скан размером 20х30 — 400р. за пленку

                  Если пленок 100шт. То да. как минимум 21т.р.

                  Как же хорошо, что у меня нет столько пленок =)
                    0
                    Скан размером 10x15 это сколько dpi? 300?
                      +1
                      Если надо получить 10х15см с разрешением 300dpi с кадра 24х36мм (стандартная пленка), то имеем 100/24 = 4.16 раз надо увеличить, т.е. 300dpi * 4.16 = 1248dpi,

                      Соответственно чтоб получить 20х30см — нужно сканировать кадр как 2496dpi
                  0
                  Если сканировать на фотолабовской цифровой машине для печати (там есть такая опция), то качество получается так себе. Его кратно перекрывал мой минольтовский дуалскан III. Если же сканировать в фотолабах на нормальных плёночных сканерах, то результат будет, да, куда лучше домашнего (лабы, предлагающие такую услугу имеют хорошие профессиональные сканеры), но стоимость этого варианта отобьёт всякую охоту после пары плёнок.
                  +1
                  Тоже сканировал (причем последний подход к снаряду делал недавно). Тоже и плёнки и негативы. Тоже похожим сканером (Epson Perfection V350 Photo).

                  После сканирования нескольких плёнок (тоже в tiff) выключил нафиг все улучшайзеры у родного софта (удаление дефектов выключил в первую очередь, когда увидел, что эта «фича» иногда творит с изображением).
                  Т.е. теперь у меня есть кучка фоток и я потихоньку ручками их все обрабатываю и ручками удаляю дефекты.
                    0
                    Есть какие-то наработанные общие лайфхаки у Вас в каком-нибудь фотошопе? Ну типа ко всем снимкам применяем такой-то фильтр, то да сё, убирает зернистость. Или все индивидуально?
                      0
                      Увы, нет.
                      Дальше всё исключительно руками (neatimage, levels, heal/clone, unsharp mask). Но всё это «не фотошоп», а gimp :)
                      Моё сообщение было о том, что встроенные в программу сканирования улучшайзеры сильно упрощены и ошибаются очень часто и сильно.
                        0
                        Разные бывают встроенные улучшайзеры. Технология Digital ICE, например, весьма качественно работает с удалением пыли на цветных (и, если не ошибаюсь, проявляемых по процессу C-41 черно-белых) пленках.
                          0
                          Я имел в виду конкретные улучшайзеры в конкретном софте (Epson Scan).
                          Моё мнение основывалось на том, что я сам попробовал их и увидел получающиеся косяки. Довольно много пришлось сканировать повторно, т.к. косяки заметил не сразу.
                    +1
                    У меня в своё время тоже встала подобная задача.
                    Только отсканировать хотелось лишь какое-то количество старых слайдов на 35-миллиметровой плёнке.
                    Поразмышляв немного о возможном характере использования сканов — а это (максимум) посмотреть прямо с экрана и освежить в памяти. Ну или залить в цифровую фоторамку — от всех идей с долгой чисткой, хранением несжатых данных и прочего решительно отказался. Минимальная обработка — и сохранение в jpeg со сравнительно небольшим разрешением (чтобы при печати 10х15 получилось 150lpi). Чего-то бОльшего — в принципе не нужно. Если эти слайды пролежали 20 лет в коробках и за это никто на них не смотрел (до тех пор, пока мне не пришла в голову идея их оцифровать) — то ровно так же будут лежать и полученные файлы в «неюзабельном» формате. («неюзабельный» — это, например, 40-мегабайтные tiff-ы на DVD. Или любой другой, где эти файлы будут загружаться ощутимое время).
                    В общем, факты таковы, что «тяжёлые» картинки скорее всего никогда никому не потребуются. Даже если возникнет желание напечатать что-нибудь лет через 20 — скорее всего на тот момент архив «тяжестей» на CD/DVD всё равно умрёт, и придётся снова сканировать оригинал (на той технике, с её новыми возможностями).
                    А вот лёгкие jpeg-и — это в точности то, что нужно.
                      0
                      Когда я решал свою задачу, я в принципе как раз старался учесть и то, что Вы пишете.
                      Поэтому сканирование по-максимуму — это не конечный результат, а исходник для дальнейшей обработки. Он требует как минимум подписывания — что за фото, кто все эти люди и т.п.
                      Далее, все правильно — никто смотреть 20-мегабайтный TIFF не будет. Я в своем случае потом в пакетном режиме подписанные фото жму и выкладываю на сайт. Люди смотрят оттуда легкие JPG. А если надо напечатать — то название файла не меняется — я запросто найду оригинальный TIFF и сделаю отпечаток. Но сканируя сразу по-максимуму, я сразу решаю проблему, что никогда потом не понадобиться сканировать еще раз. Что касается хранения данных на DVD — это конечно же нереально, поскольку хочется сохранить для потомков, а DVD мрут только так. Поэтому решение было такое: все хранится на винте и бэкапится тоже на другой на винт. Итого — вероятность, что сразу помрут два винта — невелика, а если мрет один — покупаем новый и делаем еще копию. С размером тоже проблем нет — это не DVD, помещается намного больше. Так что экономить на размере картинки смысла не вижу.
                      0
                      Имею в своей коллекции старых негативов очень редкие экземпляры — сделанные на стеклянных стеклонегативах в середине 20века. Примерный размер 6*9см. Справится ли данный агрегат с таким раритетом?
                        0
                        Если говорить про «Epson Perfection V330 Photo» — то нет, у него лампа подсветки негативов узкая, только на ширину пленки или маленьких слайдов. Я бы раритеты лучше отнес в профессиональную лабораторию…
                          0
                          Эх, жалко. Спасибо за ответ.
                          А по лабораториям уже шукал данный вопрос. Цену назвали словно я Абрамович.
                        0
                        Спасибо за опыт! Скажите, чем обрабатываете (обращаете) негативы под Linux?

                        Со своей стороны могу горячо порекомендовать для задачи «Выкладывание на сайт» www.phtagr.org. Спустя небольшое время после начала использования программы я всё ещё в шоке, насколько полно и удобно реализует этот продукт задачу разбора и показа локальных фоток. Всё перечисленное: теги, категории, хранение в Exif — всё и даже гораздо больше. Адекватный разработчик и нормальный темп изменений. Мне кажется, продукт требует своего обзора на Хабре, поверьте, он того стоит.
                          0
                          Именно под линуксом я с такой задачей еще не сталкивался, хотя, судя по всему, предстоит. Родной софт сканера под виндой позволяет сразу обращать негативы, правда смущает, что у него нет настроек — в том же стареньком filmscan35 с Silverfast можно было указать, с какой пленки было сканирование, поскольку цвета подложки у разных пленок отличаются и тут простой инверсией не обойтись. По всей видимости надо покопать в сторону RAW-конвертеров, вот здесь например рекомендуют RawTherapee: «понимает множество цифровых негативов, так как основан на dcraw». И вот еще обзор нескольких конвертеров на ixbt. Переберу и перепробую что есть — потом может сделаю обзор, если будет такая потребность.
                            0
                            Прочитал обзор на ixbt, возникла стойкая уверенность, что автор статьи «негативами» по тексту называет raw-файлы с зеркальной камеры.
                              0
                              Покопавши интернеты в поисках инверсии негативов — вот такой вариант: Конвертация негативов в позитив . Вцелом, если проделать это один раз и сохранить кривые — то можно это прогонять для всей пленки в пакетном режиме.
                          0
                          Для справки:
                          Реальное разрешение планшетных сканеров чуть более 2000 dpi. Всё что свыше — от лукавого.
                          На самостоятельное сканирование уходит изрядное количество времени. Это надо учитывать.

                          Плюс старые пленки как правило пребывают в очень скрученном состоянии. Это на самом деле проблема номер 1.
                            0
                            Мои плёнки были сильно скрученными. Вначале было ужасно сложно вставлять их в слайд модуль сканера (Epson Perfection V350 Photo). Но к пятой плёнке приноровился и это проблем уже не вызывало. А сам слайд модуль с уже вставленным кусочком скрученной плёнки работает нормально (в отличии от плёнок, у которых порвана перфорация).
                              0
                              Скрученные пленки пожно и нужно нарезть на серии по 6 штук и например положить между листами книги на месяц-другой, дабы выпрямились. Где-то слышал про методы, что можно намочить и потом выпрямлять — это намного быстрее, но опыт был скорее негативный, так что применять не стал и даже не запомнил, где о таком читал. А так на самом деле месяц подождать — это не проблема, если пленки и так уже несколько десятков лет лежат…

                              Сканировать скрученные — это потеря качества однозначно, меняется путь прохождения световых лучей в разных местах кадра, отсюда искажения.
                                0
                                Согласен.
                                Понимаю про искажения, поэтому пытался распрямить одну плёнку, порезав по 6 кадров и положив кусочки в книжку.
                                Увы, у меня она за пол года такого лежания распрямилась совсем чуть-чуть (некоторые плёнки изначально были менее скручены).

                                А мочить я их точно не стал-бы, уж лучше пусть небольшие искажения будут, чем совсем их угробить из-за смачивания.

                                P.S. У меня не все плёнки были скручены. Некоторые были порезаны изначально и хранились в расправленном виде. Их засовывать в слайд модуль было гораздо проще.
                                  0
                                  Забыл про еще один вариант — перемотать пленку наоборот — тогда быстрее распрямится. Правда это немного более кощунственно, но тем не менее вариант имеет право на жизнь.
                                    0
                                    Я бы этого делать не стал. От такого сильного изгиба у старых плёнок может поломаться перфорация, и тогда сканировать гораздо более геморойно (пришлось бы использовать не слайд-модуль с автоподачей, а рамку)

                                    Кстати я насколько плёнок сканировал в фотопроекте «по свежим следам» на довольно крутом плёночном сканере. Сейчас у меня есть эти плёнки (они, кстати, не скручены), т.е. в принципе я могу отсканировать пару кадров и сравнить крутой плёночный сканер с авто-ретушью vs бытовой (пусть и неплохой) планшетник со слайд-модулем + руки.sys.
                                      0
                                      «на довольно крутом плёночном сканере» == Nikon Super COOLSCAN 9000 ED (судя по exif, дело было в 2004 году)
                              0
                              Я считаю, что надо говорить о конкретных моделях сканеров, а не обобщать на все сканеры вцелом. Лет 5 назад я бы сказал, что «Реальное разрешение любых сканеров чуть более 1000 dpi», и сейчас был бы ой как не прав.

                              И да, пожалуйста пруф в студию, откуда такая информация и каких конкретно сканеров касается.
                                0
                                Сейчас к сожалению перестали тестировать сканеры на разрешение. Видимо никому это не интересно.
                                Последнее что я нашел — это вот эта статья на Хоботе про Epson V700
                                www.ixbt.com/digimage/epsonpv700.shtml
                                Там есть раздел интересный раздел про разрешение. Там хорошо видно насколько различается реальное разрешение от заявленного.

                            Only users with full accounts can post comments. Log in, please.