company_banner

Как заработать на веб-скрапинге

Автор оригинала: Christopher Zita
  • Перевод
А вы знали о том, что то, что вы сейчас читаете, это — данные? Вы видите слова, но на серверах всё это хранится в виде данных. Эти данные можно куда-то скопировать, можно разобраться в их структуре, с ними можно сделать что-то ещё. Собственно говоря, только что мы привели упрощённое описание веб-скрапинга. Скраперы просматривают код, из которого созданы веб-сайты (HTML-код), или работают с базами данных, и вытаскивают отовсюду те данные, которые им нужны. Практически каждый веб-сайт можно подвергнуть скрапингу. На некоторых сайтах применяются особые меры, которые мешают работе веб-скраперов. Но тот, кто достаточно хорошо знает своё дело, способен успешно собрать данные с 99% существующих сайтов.



Если вы не знали о том, что такое веб-скрапер, то теперь вы, в общих чертах, об этом знаете. А это значит, что мы можем заняться тем, ради чего вы, вероятно, начали читать эту статью. Мы сможем приступить к разговору о заработке на скрапинге. Такой заработок, кстати, не так сложен, как может показаться на первый взгляд. На самом деле, все методы и примеры, которые я собираюсь вам показать, укладываются в менее чем 50 строк кода. А изучить всё это можно буквально за несколько часов. Собственно говоря, полагаю, что сейчас вы вполне готовы к тому, чтобы узнать о трёх способах заработка с помощью веб-скрапинга.

Способ №1: создание ботов


«Бот» — это всего лишь технический термин, обозначающий программу, которая способна что-то делать. Такую программу можно создать и продать тому, кому нужно автоматизировать то, что умеет программа.

Для того чтобы продемонстрировать вам технологию разработки и продажи ботов, я создал бота для Airbnb. Этот бот позволяет пользователям вводить данные о некоем городе и возвращает сведения обо всех жилищах, которые в этом городе предлагает Airbnb. Сюда входят данные о цене, рейтинге, о количестве постояльцев, которое может принять дом, о количестве спален, кроватей, ванных комнат. И всё это делается благодаря применению технологий веб-скрапинга при сборе данных из постов, размещаемых на сайте Airbnb.

Для того чтобы показать этого бота в действии, я собираюсь узнать с его помощью о том, что можно снять в Риме, в Италии. Я передаю боту соответствующие данные, а он, за секунды, находит 272 уникальных предложения и оформляет их в виде удобного Excel-листа.


Теперь с такими данными работать гораздо легче, чем на сайте. Можно, например, сравнить разные жилища и их особенности. Кроме того, эти данные удобно фильтровать. В моей семье 4 человека. Если мы соберёмся в Рим, то нам понадобится Airbnb-жильё с как минимум 2 кроватями, отличающееся адекватной ценой. Благодаря тому, что все данные собраны в удобном формате, в Excel, с ними можно весьма продуктивно работать. Как оказалось, моим нуждам удовлетворяют 7 результатов из 272.


Среди этих 7 результатов я выбрал бы жильё Vatican St.Peter Daniel. У него очень хороший рейтинг и, из 7 найденных результатов, оно самое дешёвое ($67 за ночь). После того, как я нашёл то, что меня заинтересовало, я могу взять соответствующую ссылку из таблицы, открыть её в браузере и забронировать жильё.


Поиск жилища, в котором можно остановиться в путешествии, может оказаться непростой задачей. Я уверен, что все с этим сталкивались. Именно поэтому есть люди, которые, ради упрощения этого процесса, готовы платить. Мне удалось упростить поиск жилья с помощью созданного мной бота. Только что я продемонстрировал вам то, как я всего за 5 минут нашёл именно то, что мне нужно.

Люди готовы платить за то, что хотя бы немного облегчает им жизнь.

Способ №2: перепродажа товаров, купленных с хорошими скидками


Один из наиболее распространённых способов использования веб-скрапинга заключается в сборе с различных сайтов информации о ценах товаров. Есть люди, которые создают скраперов, запускающихся ежедневно и собирающих цены на конкретный товар. Когда цена на товар упадёт до определённого уровня, программа автоматически покупает товар, стремясь сделать это до того, как этот товар окажется распроданным. Затем, так как спрос на товар будет выше предложения, тот, кто до этого купил товар по низкой цене, перепродаёт его по более высокой цене и получает прибыль. Это — пример лишь одной из тактик перепродажи товаров, купленных по низким ценам, которой пользуются создатели веб-скраперов.

Ещё одна схема, пример которой я сейчас продемонстрирую, может помочь вам хорошо сэкономить или достойно заработать.


В каждом интернет-магазине бывают всяческие спецпредложения и распродажи. В карточках соответствующих товаров обычно показывают исходную цену и цену со скидкой. Правда, обычно разницу между новой и старой ценой, выраженную в процентах, не показывают. Например, если часы обычно стоят $350, а на распродаже — $300, то можно подумать, что $50 — это отличная скидка. Но это, на самом деле, скидка всего в 14,2%. А вот, например, майка, которая обычно стоит $50, а на распродаже её предлагают за $40. Вроде бы $10 — это не так уж и много, но это — скидка в 20%, то есть — более высокая, чем скидка на часы. Эти сведения позволяют экономить или зарабатывать, находя товары с самыми высокими скидками, выраженными в процентах.

Применим эти рассуждения к анализу цен на товары в универсальном интернет-магазине Hudson’s Bay. У них постоянно бывают распродажи товаров самых разных марок. Мы, пользуясь технологиями веб-скрапинга, собираемся найти товары с самыми высокими скидками.


После обработки сайта скрапер выдал более 900 товаров, и, как можно заметить, среди них есть всего один, скидка на который превышает 50%. Это — товар Perry Ellis Solid Non-Iron Dress Shirt.


Это — предложение, ограниченное по времени, поэтому цена на рубашку, в итоге, скоро вернётся к своему обычному уровню примерно в $90. Поэтому, если бы я купил эту рубашку за $40 и потом продал бы её на $30 дешевле её обычной цены, то есть, за $60, я заработал бы $20.

Этот метод, если найти подходящую нишу, способен помочь в заработке серьёзных денег.

Способ №3: сбор и продажа данных


В интернете море бесплатных, доступных каждому данных. Часто эти данные довольно легко собирать, а значит, они легко доступны тем, кто хочет их как-то использовать. Но, с другой стороны, есть данные, собрать которые не так уж и легко. Для их сбора и представления в виде аккуратного набора данных может понадобиться либо много времени, либо много работы. Это стало основой развития рынка продажи данных. Существуют компании, которые занимаются только тем, что собирают данные, которые может быть непросто собрать. Они приводят эти данные в приличный вид, возможно, делают интерфейсы для работы с такими данными, и, за определённую плату, дают работать с этими данными тем, кому они нужны.


Например, BigDataBall — это сайт со спортивными данными, который продаёт журналы игроков, протоколы матчей и другие данные по цене в $30 за информацию, соответствующую одному сезону. Причина, по которой владельцы сайта могут запросить эту цену, заключается не в том, что они — единственные, у кого есть такие данные. Дело в том, что это — единственный сайт, который предлагает подобные данные в хорошо структурированном и удобном для использования виде.

А я сейчас хочу рассказать о том, как получить те же данные, которые продаются на BigDataBall, совершенно бесплатно, и о том, как сформировать из них аккуратно оформленный набор данных, напоминающий те наборы, которые я уже вам показывал.

Как я уже говорил, доступ к данным, которые продаёт сайт BigDataBall, есть не только у этого сайта. Например, на сайте basketball-reference.com размещены те же данные, но они не структурированы и не сгруппированы. То есть — работать с ними неудобно, их нельзя просто загрузить, сформировав из них необходимый кому-то набор данных. Именно тут нам на помощь и приходит веб-скрапинг. А именно, я хочу собрать с сайта журналы игроков и оформить всё это в виде структурированного набора данных, напоминающего наборы данных BigDataBall. Ниже показан результат сбора данных


Обработав сайт, нам удалось собрать около 16000 журналов игроков за сезон. Никто в здравом уме не станет вручную копировать 16000 журналов и складывать их в собственный набор данных. Именно поэтому такие данные, представленные в удобном формате, и могут стоить $30. Веб-скрапинг позволяет не покупать эти данные на BigDataBall, а собрать их за пару минут и сэкономить $30.

Не стоит и говорить, что вы вполне можете заниматься тем же самым, чем занимаются сотрудники BigDataBall. А именно: находить данные, которые сложно собирать вручную, собирать их с помощью компьютера и продавать их тем, кто хочет получить их в удобном для работы виде.

Итоги


Веб-скрапинг — это весьма интересный современный способ заработка. Если правильно воспользоваться технологиями веб-скрапинга, это может принести немалые деньги. И это гораздо проще, чем многие думают.

А вы занимаетесь веб-скрапингом?



RUVDS.com
RUVDS – хостинг VDS/VPS серверов

Комментарии 63

    0

    А у меня такой подход — создание уникального контента из скрапинга. Сначала скрапирую данные, обрабатываю их и на выходе получаю уникальные данные.


    Например, просмотры каналов на Ютьюбе можно перевести в средний заработок каналов.
    Словарь по иностранному языку можно перевести в словарь транскрипций на русском.

      +2
      А дальше что вы делаете с этими данными?
        0
        Сайты. Узнатьбабло, например. Или am2ru. И еще штук 5 для других языков.
          +5
          Узнатьбабло

          Давно я не видел так отвратительно оформленных сайтов.
            +10
            Текстовое наполнение недалеко ушло от оформления
            Подсчёт ведётся искусственным интеллектом на квантовых вычислениях блокчейна глубокого обучения крипто-нейросети.
              0
              :) Там же есть сноска.
              0
              Я не дизайнер. Мне больше бекендом нравится заниматься.
              И вообще считаю, что дизайн — ничто, если контент что. И поведенческие показатели говорят, что я прав.
                0
                Не знаю как остальные, но меня бы остановило от использования сайта бегущая строка. Ну и на метрики я бы полагаться не стал. У меня они банально заблочены.
                  0
                  То есть вы смотрите на форму, а не на модержание. Бегущая строка — в топку. А то, что там показывается такая уникальная инфа — это наплевать. Понятно.
                  А метрики без вас хватает. Постоянный рост трафика говорит, что все хорошо у сайта. И надо иметь ввиду, что аудитория — не зумеры с бумерами, а жадные школьники.
                    0
                    То есть вы смотрите на форму, а не на модержание.

                    Форма отвлекает от содержания, очевидно же.
              0
              сумма просмотров * на фиксированную сумму???
              мой канал на Вашем сайте заработал 500$, на деле 200$
                –1
                60 рублей за 1000 просмотров.
                А вообще, подсчёт ведётся искусственным интеллектом на квантовых вычислениях блокчейна глубокого обучения крипто-нейросети.
          +21

          Раньше это называли парсингом, а ботов — парсерами

            +11
            «Потому что парсинг не может дорого стоить, а веб-скрапинг может»© :)

            p.s.: Мы в свое время писали грабберы для онлайн-веб-игрух, с веб-интерфейсом для поиска по данным, ну и немного ботами. Карта допустим изначально в тумане войны, сканируешь допустим карту, потом позволяешь искать по ней нужные данные, автомазитировать какие-то действия ботом можно быол. Было достаточно популярно, но потом в веб-игры пришла активная монетизация, парсеры ограничили, а аналогичную инфу стали за реал продавать прямо в игре. Сейчас эта тема почти везде заглохла. А жаль, было интересно.

            p.p.s.: Tihon_V CloudFlare не особо мешает. Бот поумнее с эмуляцией браузера, несколько хороших ИПшников, работа через tor и т.д… Защита у клоудфайра, если она не параноидальная (при которой уже юзеры еще не страдают то есть), настроена в первую очередь на ддос, а не на ботов.
              0
              да были, времена… сам писал ботов для онлайн-флеш игр и с автоматическим управлением и с распознаванием текста из графики, чтоб находить ресурсы на карте или, например, мониторить цены на аукционах. правда к тому парсингу, как я его понимаю, это никакого отношения не имело, т.к. по сути тут идет получение данных, которых в прямом(текстовом) доступе нет, возможно, это и будет скраппингом.
                0
                «Потому что парсинг не может дорого стоить, а веб-скрапинг может» :)

                Кажется я понял, как можно поднять цену, чтобы заказчики не брыкались и выкладывали денежки.
                +1
                Раньше это называли парсингом, а ботов — парсерами

                А ещё раньше (в дремучих 90-х) — краулерами и даже пауками! :-)

                  0
                  Первое название до сих пор изредка используется, второе вижу первый раз, но я в те времена в этой области не работал.
                +12
                Замечу, что основная цель защиты от ботописателей не в том, чтобы не отдать данные, а в том, чтобы долбо… не положили сервак. Т.к. многие… считают, что 100 запросов в секунду для магазина на джумле на шаредхостинге не вызывают никаких проблем:).
                  +1
                  Выложите xls/csv-файлик с записями, и это будет дешевле, чем подключать капчу и прочие хитрости. Да и пользователей не так злить будет. Вот серьёзно, когда даже магазины компьютерной техники ни хрена не предоставляют скачиваемого прайса, вынуждая пользоваться их убогим поиском и тормознутым сайтом, чтоб найти нужный товар или просто просмотреть ассортимент, просто зла не хватает.
                    0

                    Только у DNS видел прайс листы.


                    Заголовок спойлера

                      +4

                      Я очень долго думал, какие прайс-листы могут быть у DNS. "Узнать все ip-адреса google.com"? "Сутки кеширования вашей A-записи"?


                      Потом открыл спойлер и до меня медленно дошло, да.

                      0
                      Те, кто поумнее, либо позволяют забирать данные в виде JSON или XML, либо, да, вывешивают в виде ссылки для скачивания файла. А если не хотят делиться просто так, если, к примеру, там какие-то данные имеющие коммерческую ценность, то продают доступ к ним за деньги. И в большинстве случаев, заказчик просто покупает доступ, выдаёт описание API, если таковой есть, и все довольны: источник получает свой кусочек денег, я получаю свой, потому что нужна какая-то обработка (иначе он ко мне не придут с заказом), а заказчик — данные в удобной форме.

                      Кстати, в США суд вообще запретил препятствовать работе ботов, собирающих данные, выложенные в общий доступ: какая разница, тыкается ли человек в браузере сам или это делает от его имени программа?
                      –5
                      Да успокойтесь большая часть бото писателей не пишут парсинг выше 2-3 запросов в секунду.
                      Точно вам говорю, а если данные через js ещё подгружать то 90% пойдёт selenium расчехлять. )

                      Для тех кто умеет в 100 запросов в секунду js endpoint сильно упростит жизнь и вам и им.
                        0

                        Можно поставить CloudFlare или найти аналогичное решение, но пользователь будет "наслаждаться" капчей...


                        Все что может быть прочитано — будет прочитано. Относительно недавно пришлось писать парсер для тематического ресурса про киберспорт. С администраций ресурса связывались, но увы, они не имеют реализованного API (только очень старый бекенд закрытый вышеупомянутым). Пришлось использовать lxml и много прокси-серверов для своевременной актуализации данных.


                        P.S.: Мне кажется что в 2020 было бы хорошей практикой владельцам ресурсов оставлять контакты в футере, или специальной странице, а людям что парсят данные — читать их.

                          0
                          А как вообще автоматизированно получить страницу, спрятанную за Cloudflare? Этот нынче половина интернета. Ведь каким бы вежливым мой бот ни был, его заставят проходить капчу.
                            +2

                            Сервисы по решению капчи в помощь.

                              0
                              если вам пофиг на то, что браузер реально будет скачивать и отображать данные, то бота просто и не попросят вводить капчу.

                              если хотите обойтись текстом без прогрузки js или изображений — будет сложнее.
                                0
                                Почему не попросят? Ведь меня-то самого в браузере регулярно просят, при обычном нормальном пользовании сервисами.
                                0

                                Я обхожусь прокси с авторотацией. Иногда приходится использовать ещё и puppeteer. Пока проблем с капчей от CloudFlare не возникло, но на некоторых сайтах — важно пробрасывать куки в запрос.

                                  0
                                  Спасибо, что поделились опытом. Но ведь чтобы получить куки, нужно хотя бы один первый раз пройти капчу? Вручную это сделать?
                                    0
                                    Если спрашивают однократно, то можно и вручную. У меня был один заказ — программа для работы с одним сервисом. И этот сервис при каждой авторизации спрашивал капчу. Я тупо свалил это на пользователя, показывая картинку в интерфейса и предоставляя поле ввода. Но это, понятно, не общий случай.
                                    0
                                    Если использовать requests, а лучше — MechanicalSoup, то куки таскаются библиотеками без вмешательства разработчика. Правда, приходится немного поплясать с бубном, если есть желание сохранять эти куки между запусками, но тоже ничего особо сложного. А в от за наводку на puppeteer большое спасибо: иногда раскапывание JS действительно задалбывает. И ладно бы отбивались от роботов, но ведь просто криво всё сделали и забили. «И так сойдёт!»
                                0
                                У нас на сервисе стандартное ограничение 6 запросов в секунду. И даже на таких мелочах частенько приходится снижать лимиты. А некоторые сайты падают просто если в браузере открыть 4-5 вкладок: не представляю как «это» вообще клиентов должно приводить.
                                  +1
                                  Я закладываю таймауты между запросами для бережного отношения к обираемому серверу.
                                    0
                                    Какое слово-то подобрали — «обираемому»! Начинаю чувствовать себя порождением Зла.
                                  +4

                                  Выгодно перепродавать товары, купленные со скидкой в Hudson's Bay… Долго смеялся.


                                  В Hudson's Bay без скидок затариваются только дурики, которым совсем денег некуда девать. Скидками они привлекают нормальных людей, так как только после скидки цена товаров становится приемлемой

                                    +2

                                    Мне интересно, а как потом эти рубашки перепродают? На каких-нибудь типа авито?

                                      0
                                      вообще, этот вопрос у меня тоже возник. неужели эта бизнес-идея рабочая?
                                        0
                                        Если говорить о Канаде, а Hudson's Bay — это канадская сеть магазинов, то в общем и целом — нет. Скидки в магазинах здесь обычно довольно кислые. Причём несколько лет назад, до бурного развития интернет-торговли, нормой было продавать товары по завышенным ценам, а скидками доводить цену до более-менее нормальной и приемлемой. Hudson's Bay, как наиболее старая торговая сеть, по-прежнему использует эту модель.

                                        Здесь есть интернет-площадки, где можно продать ненужные тебе вещи (и попробовать навариться). Я сталкивался с такими: из бесплатных это Craigslist (уже скорее мёртв, чем жив), Kijiji, Facebook Marketplace, из платных это eBay и Amazon (правда Amazon всё более пренебрежительно относится к «одноразовым» продавцам).

                                        Есть ещё «flea market» — блошиные рынки. Но это место скорее для малого бизнеса — там торгуют только лоточники, так как место стоит денег. Весной обычно устраивают домашние распродажи — garage sale, но это скорее, чтобы купить что-то задёшево, чем продать задорого. Есть ещё сезонные фермерские базары (farmers market). Но это тоже, в основном, оптовики от сельского хозяйства. Хотя есть и фермеры, можно купить сельскохозяйственную продукцию напрямую от производителя. Ценник, правда, дороже и, бывает, в разы, чем в магазине. А качество может быть тем же.

                                        Возвращаясь к перепродажам, я иногда пытался просчитать, сколько я могу наварить на той или иной скидке. Но всё упирается в то, что кому надо, это скидку тоже найдут. Остальным оно и со скидкой не надо. Плюс 13% налог, добавляемый магазином к цене. За $10-$15 долларов навара, пытаясь толкнуть в розницу, возиться совсем неохота.

                                        Единственный вариант получить чуток денег почти нахаляву — это брать вещи, которые выставляют другие люди на обочину дороги или, если это многоквартирный дом, где-то в специально отведённом месте, может быть чуть-чуть их починить и почистить — и продать (или оставить себе :). Народу ненужно масса полезных и, частенько, достаточно дорогостоящих вещей, и лениво их продавать. Планшеты, телефоны, лаптопы, десктопы.

                                        Некоторые вещи, например, детские игрушки и одежду, электронную мелочёвку, я забираю, чтобы отвезти и подарить на Кубе. Для них это, по-прежнему, очень существенно.

                                        Напоследок, о Штатах. Там в магазинах на крупных распродажах бывают цены 0 долларов (правда, обычно, не через Интернет). Нужно только заплатить налог на продажу 8-10%, считающийся с цены до скидки. Или когда Amazon вдруг продаёт товары в 10 раз дешевле их нормальной цены. Вот такие моменты можно отлавливать и использовать…
                                      +6
                                      Подобные посты надо писать на индийском языке.
                                        –3
                                        Что это за язык такой? Новый ЯП?
                                        +1
                                        Если бы сайты сразу давали данные в csv, человечество смогло бы сэкономить массу усилий на ненужный парсинг, и освободившееся время потратить на решение естественных, а не искусственно придуманных проблем)
                                          +1
                                          В csv не вставить рекламу :)
                                            0
                                            Почему? Вполне можно, если постараться. И, как и положено рекламе, она будет бросаться в глаза и раздражать.
                                            +1
                                            в csv

                                            Давайте XML или JSON. У CSV куча проблем.
                                              0
                                              Зато с xml то все в порядке!
                                                0
                                                Не идеальный формат, но по крайней мере поддерживает сложные структуры, и к нему есть стандартные инструменты, по крайней мере в PHP.
                                                  0
                                                  К нему есть стандартные инструменты у кого угодно. Чаще — просто прицепляют обёртку вокруг libxml и на этом останавливаются.
                                            +3
                                            Во времена моей молодости такие скрипты называли «грабберами» :)
                                              0
                                              Согласен с вами.

                                              Извлечь, сграбить, рипнуть, спарсить, скрапить — каждое поколение придумывало тому же действию свое название. Иногда вообще не зная истинного смысла выбранного слова.

                                              Например, веб-скрапинг это вырезка понравившегося фрагмента html-страницы в собственную копилочку. Так сказать, с целью пополнить «гербарий» юного верстальщика очередным соскобленным div-ом. А то о чем пишет автор поста, это классический парсинг html, то есть разбор страницы сайта на разметочную шелуху и чистые данные.
                                                0
                                                Извлечь, сграбить, рипнуть, спарсить, скрапить...

                                                веб-лутинг
                                              0
                                              А есть какие-нибудь инструменты/подходы для скрапинга? Плюс наверняка тут обычными querySelector по dom не обойтись и надо изобретать что-то более высокоуровневое?
                                                +1
                                                Python и Scrapy
                                                  0

                                                  Xpath подходит для большинства задач. И, если данные не лежат непосредственно в исходной страничке, а подгружаются скриптами, то делать такие же запросы и парсить json

                                                    +1
                                                    Я использую MechanicalSoup. Это такая удобная обёртка вокруг requests для добывания данныех с сервера и BeautifulSoup4 для разбора полученного документа. Если работа идёт исключительно с JSON, то хватает requests — библиотека имеет функционал для отдачи сразу десериализованной структуры.

                                                    BeautifulSoup умеет бегать по дереву как раз CSS-селекторами, а обёртка умеет удобно отдавать разобранное дерево сразу после загрузки без дополнительных телодвижений.
                                                    0
                                                    Когда цена на товар упадёт до определённого уровня,
                                                    программа автоматически покупает товар

                                                    После покупки товара покупателем магазин должен будет отправить товар покупателю по указанному им адресу.


                                                    Затем… перепродаёт его по более высокой цене

                                                    Где продаёт? Купленный товар едет к покупателю домой или приехал к нему уж.

                                                      0
                                                      Похоже на парсинг.
                                                        0
                                                        И сразу есть идея. Веб-скрабить данные для лидогенератора по тематике, например (не суть важно), ремонтно-строительных услуг на Авито и перепубликовать у себя на сайте, с повышением стоимости на 20%. А самому выступать диспетчером.
                                                          0
                                                          Искать в интерфейсе Airbnb удобнее чем в экселе. И все настройки для фильтров там есть, и по числу кроватей и по числу мест и по множеству других параметров. При этом результаты поиска отображаются на карте — что важно и удобно.
                                                            0
                                                            Ну можно дописать веб интерфейс который будет больше удовлетворять пользователя а не мозолить глаза для прибылли airbnb)
                                                            0
                                                            тоже занимаюсь подобным для личного пользования, но полностью некоммерчески — создаю epub-ы из сайтов с текстами (типа такого или такого ), чтобы потом их читать в оффлайне (в транспорте или далеко от цивилизации). Поэтому у меня гуманный скрапинг\грабинг — по полсекунды на страничку и не больше одного запроса на страницу.
                                                              0
                                                              Теперь с такими данными работать гораздо легче, чем на сайте. Можно, например, сравнить разные жилища и их особенности. Кроме того, эти данные удобно фильтровать. В моей семье 4 человека. Если мы соберёмся в Рим, то нам понадобится Airbnb-жильё с как минимум 2 кроватями, отличающееся адекватной ценой. Благодаря тому, что все данные собраны в удобном формате, в Excel, с ними можно весьма продуктивно работать. Как оказалось, моим нуждам удовлетворяют 7 результатов из 272.

                                                              Так себе пример, учитывая, что на Airbnb существуют удобные фильтры, в том числе и по количеству кроватей. Более того, можно смотреть фотографии не отходя от кассы не переходя в карточку, используя слайдер в результатах поиска.
                                                              А еще можно смотреть жилье в определенной части города, используя зум карты, чего уже нельзя сделать в excel. Особенно, когда важно, где именно проживать (центр или черта города).

                                                              Пример скрапинга понятен, но пример с Airbnb, увы, неудачный.

                                                              Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                                              Самое читаемое