<?xml version="1.0" encoding="UTF-8"?>

<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" >

  <channel>
    <title><![CDATA[Комментарии к публикации ««20 тысяч IOPS на узел — хорошие показатели с учётом задержек в 5 мс». Для OLTP — нет»]]></title>
    <link>https://habr.com/ru/articles/414269/</link>
    <description><![CDATA[Комментарии к публикации ««20 тысяч IOPS на узел — хорошие показатели с учётом задержек в 5 мс». Для OLTP — нет»]]></description>
    <language>ru</language>
    <managingEditor>editor@habr.com</managingEditor>
    <generator>habr.com</generator>
    <pubDate>Mon, 04 May 2026 20:56:34 GMT</pubDate>
    
    
      <image>
        <link>https://habr.com/ru/</link>
        <url>https://habrastorage.org/webt/ym/el/wk/ymelwk3zy1gawz4nkejl_-ammtc.png</url>
        <title>Хабр</title>
      </image>
    

    
      

      
        
  
    <item>
      <title>28.04.2020 13:01:05 R_Voland</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_21551346</guid>
      <link>https://habr.com/ru/articles/414269/#comment_21551346</link>
      <description><![CDATA[Кто блин мешает закрепить файлы БД на быстрых дисках то? Autotiering — маркетинговая уловка всего лишь.]]></description>
      <pubDate>Tue, 28 Apr 2020 13:01:05 GMT</pubDate>
      <dc:creator><![CDATA[R_Voland]]></dc:creator>
    </item>
  

  
    <item>
      <title>14.02.2019 19:55:55 speshuric</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_19758152</guid>
      <link>https://habr.com/ru/articles/414269/#comment_19758152</link>
      <description><![CDATA[Чем поделиться есть. Времени — нет :)]]></description>
      <pubDate>Thu, 14 Feb 2019 19:55:55 GMT</pubDate>
      <dc:creator><![CDATA[speshuric]]></dc:creator>
    </item>
  

  
    <item>
      <title>14.02.2019 08:51:36 realscorp</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_19755138</guid>
      <link>https://habr.com/ru/articles/414269/#comment_19755138</link>
      <description><![CDATA[Сегодня нашел вашу статью, случайно, по ссылке в комментарии к другой статье.<br>
Отличная статья! Очень полезно и познавательно!<br>
Пишите еще — уверен, вам есть, чем поделиться :)]]></description>
      <pubDate>Thu, 14 Feb 2019 08:51:36 GMT</pubDate>
      <dc:creator><![CDATA[realscorp]]></dc:creator>
    </item>
  

  
    <item>
      <title>28.06.2018 08:04:35 romxx</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18823405</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18823405</link>
      <description><![CDATA[Именно это и было сделано. Но речь идет про «покажите вывод fio по max latency»<br>]]></description>
      <pubDate>Thu, 28 Jun 2018 08:04:35 GMT</pubDate>
      <dc:creator><![CDATA[romxx]]></dc:creator>
    </item>
  

  
    <item>
      <title>28.06.2018 06:59:18 tlv</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18823065</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18823065</link>
      <description><![CDATA[В приличных тест-сценариях принято прогревать оборудование тестовой нагрузкой некоторое время перед началом собственно измерений.]]></description>
      <pubDate>Thu, 28 Jun 2018 06:59:18 GMT</pubDate>
      <dc:creator><![CDATA[tlv]]></dc:creator>
    </item>
  

  
    <item>
      <title>20.06.2018 09:07:04 ildarz</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18796315</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18796315</link>
      <description><![CDATA[<p>Ну так покажите распределение латентности, а не average (причем желательно не случайное чтение с очередью 32, а последовательную запись с очередью 1), и не нужны будут никакие аналогии. А так приведенные вами цифры в свете озвученных в статье проблем не значат ровным счетом ничего.</p>]]></description>
      <pubDate>Wed, 20 Jun 2018 09:07:04 GMT</pubDate>
      <dc:creator><![CDATA[ildarz]]></dc:creator>
    </item>
  

  
    <item>
      <title>19.06.2018 21:29:19 speshuric</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18794867</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18794867</link>
      <description><![CDATA[У меня в комменте не было ни одной цифры, я не мог их передернуть. У меня было только вспомненное место из художественной книги :)<br>
Да еще и наглядно иллюстрирующее подход. <br>
<br>
Или я что-то не понял?]]></description>
      <pubDate>Tue, 19 Jun 2018 21:29:19 GMT</pubDate>
      <dc:creator><![CDATA[speshuric]]></dc:creator>
    </item>
  

  
    <item>
      <title>19.06.2018 18:51:02 romxx</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18794439</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18794439</link>
      <description><![CDATA[«Плохая аналогия — это хуже, чем никакой аналогии». В данном случае аналогия явно хромает. Если вы увидите, что после 24-часового теста значение max — полсекунды, например, при этом — это значение пришлось на первые три секунды с момента старта 24-часового теста, то само по себе что это вам даст полезного?<br>
Так что аналогия с автомобилем, тут скорее другая будет, что конструкторы рассчитывают, что за миллион поворотов руля только один раз произойдет поломка.]]></description>
      <pubDate>Tue, 19 Jun 2018 18:51:02 GMT</pubDate>
      <dc:creator><![CDATA[romxx]]></dc:creator>
    </item>
  

  
    <item>
      <title>19.06.2018 18:28:49 amarao</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18794379</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18794379</link>
      <description><![CDATA[Вы передёргиваете цифры.<br>
<br>
Если у нас 0.01% операций (на самом деле цифра ниже, примерно одна из 100000) занимает 10 секунд, а оставшиеся — 5мс, то средняя latency — 5ms. И медианная latency — 5ms. И даже 99.99% персентиль — 5ms. Но при этом каждый пользователь высоконагруженной системы сталкнётся с задержками в 10с. Почему? Потому что любое устройство в продакшене обслуживает куда больше, чем 1000000 операций за своё время. Некоторые столько обслуживают за час, или даже за 10 минут.<br>
<br>
И вот субд, которая раз в десять минут фризится на 10 секунд.<br>
<br>
Тут же проблема не в «производители мудаки», а «покупатели не на ту метрику смотрят».]]></description>
      <pubDate>Tue, 19 Jun 2018 18:28:49 GMT</pubDate>
      <dc:creator><![CDATA[amarao]]></dc:creator>
    </item>
  

  
    <item>
      <title>19.06.2018 16:34:38 speshuric</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18794081</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18794081</link>
      <description><![CDATA[<p>Это ж классика</p><br>
<blockquote>Моя задача заключается в правильном применении секретной формулы.<br>
Чистая арифметика.<br>
Классическая задачка из учебника.<br>
Если новая машина, произведенная компанией, на которую я работаю, выехала из Чикаго со скоростью шестьдесят миль в час, и тут у нее заклинило дифференциал, и она улетела в кювет, разбилась, бензобак взорвался и все, кто были в салоне, сгорели заживо, должна ли компания отозвать все проданные автомобили этой модели на доработку?<br>
Возьмите общее количество проданных на настоящий момент автомобилей (А), умножьте на среднее количество серьезных отказов (В), а затем умножьте произведение на среднюю стоимость урегулирования иска родственников пострадавших во внесудебном порядке (С).<br>
А х В х С = X. Вот во сколько нам обойдется проблема, если мы не будем отзывать модель на доработку.<br>
Если Х превышает стоимость доработки, томы производим доработку, и аварий больше не бывает.<br>
Если Х меньше, чем стоимость доработки, то мы доработку не производим.</blockquote><p><em>Чак Паланик, "Бойцовский клуб"</em></p>]]></description>
      <pubDate>Tue, 19 Jun 2018 16:34:38 GMT</pubDate>
      <dc:creator><![CDATA[speshuric]]></dc:creator>
    </item>
  

  
    <item>
      <title>19.06.2018 12:28:19 amarao</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18792775</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18792775</link>
      <description><![CDATA[Вы знаете, если бы дизайнеры автомобилей так делали, то было бы «за три года вождения max latency на повороте руля выстрелила несколько раз, но это не показательно. 99.9% поворотов руля отрабатывают за меньше чем 5мс, а что 0.01% — больше нескольких секунд — ну кого эти аварии волнуют?»]]></description>
      <pubDate>Tue, 19 Jun 2018 12:28:19 GMT</pubDate>
      <dc:creator><![CDATA[amarao]]></dc:creator>
    </item>
  

  
    <item>
      <title>19.06.2018 12:25:58 amarao</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18792741</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18792741</link>
      <description><![CDATA[Нет, конечно. Это проблема дисков снизу. Но для пользователя всё равно виновата база, потому что «тормозит». Причём на тестах ССД хорошо, а потом херак транзакиция и человек своими глазами видит, как insert в пустую таблицу на 1кб выполняется 10с с localhost'а.]]></description>
      <pubDate>Tue, 19 Jun 2018 12:25:58 GMT</pubDate>
      <dc:creator><![CDATA[amarao]]></dc:creator>
    </item>
  

  
    <item>
      <title>19.06.2018 11:02:05 romxx</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18792163</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18792163</link>
      <description><![CDATA[Тест шел сутки, это — средние steady результаты. За сутки там уж конечно что-то в max выстрелило, но это непоказательно.]]></description>
      <pubDate>Tue, 19 Jun 2018 11:02:05 GMT</pubDate>
      <dc:creator><![CDATA[romxx]]></dc:creator>
    </item>
  

  
    <item>
      <title>19.06.2018 10:15:41 speshuric</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18791815</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18791815</link>
      <description><![CDATA[<p>Мы об одном и том же :)</p><br>
<blockquote>на выделенных HDD многие СХД выжимают очень и очень хорошую производительность [в режиме seq write]</blockquote><p>и </p><br>
<blockquote>Как раз жёсткие диски в линейной записи чувствуют себя круче, чем SSD.</blockquote>]]></description>
      <pubDate>Tue, 19 Jun 2018 10:15:41 GMT</pubDate>
      <dc:creator><![CDATA[speshuric]]></dc:creator>
    </item>
  

  
    <item>
      <title>19.06.2018 10:11:47 speshuric</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18791791</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18791791</link>
      <description><![CDATA[Судя по тестам, там задержка не сильно ниже, но она на очереди 1 близка к константе. Там нет хитроштопанной логики и кешей и нет жирных CoW, как на SSD. Обычные SSD «на коротких дистанциях» компенсируют это кэшем, и именно поэтому в обычных тестах оптаны показывают себя очень близко к обычным хорошим SSD. А выигрывают в проигрышных для SSD вариантах типа 100% random write 4kQ1.<br>
<br>
Хотя я тоже пока подожду готовых решений. Может в жизни всё и не так радужно.<br>]]></description>
      <pubDate>Tue, 19 Jun 2018 10:11:47 GMT</pubDate>
      <dc:creator><![CDATA[speshuric]]></dc:creator>
    </item>
  

  
    <item>
      <title>19.06.2018 09:54:41 Areso</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18791673</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18791673</link>
      <description><![CDATA[Т.е., по-вашему, это проблема в СУБД, а не в железе?<br>
Что является источником такой проблемы?]]></description>
      <pubDate>Tue, 19 Jun 2018 09:54:41 GMT</pubDate>
      <dc:creator><![CDATA[Areso]]></dc:creator>
    </item>
  

  
    <item>
      <title>19.06.2018 09:20:45 amarao</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18791451</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18791451</link>
      <description><![CDATA[А когда fio закончит, покажите-ка его вывод с latency. Интересует max.]]></description>
      <pubDate>Tue, 19 Jun 2018 09:20:45 GMT</pubDate>
      <dc:creator><![CDATA[amarao]]></dc:creator>
    </item>
  

  
    <item>
      <title>19.06.2018 09:18:58 amarao</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18791431</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18791431</link>
      <description><![CDATA[Мне удавалось получить адские задержки на последовательном IO тоже. Ключевое — fsync. Поскольку ssd не может записать внутри себя 4к блок, то там всё равно происходит CoW (copy on write), который может утыкаться в GC и тормозить всё. Как раз жёсткие диски в линейной записи чувствуют себя круче, чем SSD.]]></description>
      <pubDate>Tue, 19 Jun 2018 09:18:58 GMT</pubDate>
      <dc:creator><![CDATA[amarao]]></dc:creator>
    </item>
  

  
    <item>
      <title>19.06.2018 09:17:18 amarao</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18791423</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18791423</link>
      <description><![CDATA[Пока не щупал, но то что официалы говорят — не очень. Так же средняя latency. Которая стала ниже, но… Вот стоит субд, мурыжит тысячи операций в секунду. Тут, раз, задержка в 10с на одно IO. Как такое объяснять? «База данных ушла на базу. Вас много, я одна».]]></description>
      <pubDate>Tue, 19 Jun 2018 09:17:18 GMT</pubDate>
      <dc:creator><![CDATA[amarao]]></dc:creator>
    </item>
  

  
    <item>
      <title>19.06.2018 08:49:57 VerdOrr</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18791245</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18791245</link>
      <description><![CDATA[Пардон, что значит «была распространена NUMA архитектура»? Какая, по вашему, архитектура у современных двух- и более процессорных систем? С собственным контроллером памяти у каждого процессора и относительно медленными соединениями между ними? Другой вопрос, что в 2-/4-процессорных системах, из которых, в основном, сейчас строятся кластеры, накладные расходы относительно невелики. Но они есть и <a href="https://blogs.vmware.com/performance/2017/03/virtual-machine-vcpu-and-vnuma-rightsizing-rules-of-thumb.html">«special care must be taken in vCPU and vNUMA configuration to ensure performance is optimized»</a>]]></description>
      <pubDate>Tue, 19 Jun 2018 08:49:57 GMT</pubDate>
      <dc:creator><![CDATA[VerdOrr]]></dc:creator>
    </item>
  

  
    <item>
      <title>19.06.2018 05:20:01 Yo1</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18790183</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18790183</link>
      <description><![CDATA[на самом деле оракл еще с глубокой древности имел возможность поднимать несколько процессов пишущих в REDO лог. то была фича когда еще была распространена NUMA архитектура и предлагали на каждой партиции NUMA свой процесс писанинины в лог поднимать. другое дело что особо смысла это не имеет, т.к. нормально настроенный REDO запросто на hdd успевает писать десятки миллионов транзакций однопоточно. в тестах tpc.org и поболее есть тесты, при этом один процесс и hdd справляются.]]></description>
      <pubDate>Tue, 19 Jun 2018 05:20:01 GMT</pubDate>
      <dc:creator><![CDATA[Yo1]]></dc:creator>
    </item>
  

  
    <item>
      <title>18.06.2018 17:57:01 speshuric</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18789331</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18789331</link>
      <description><![CDATA[Круто, правда круто.]]></description>
      <pubDate>Mon, 18 Jun 2018 17:57:01 GMT</pubDate>
      <dc:creator><![CDATA[speshuric]]></dc:creator>
    </item>
  

  
    <item>
      <title>18.06.2018 17:52:40 romxx</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18789319</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18789319</link>
      <description><![CDATA[А чего гиперпконвергенция? А вот вам гиперконвергенция:<br>
<br>
<img src="https://habrastorage.org/getpro/habr/comment_images/3b4/7d2/dad/3b47d2dad347b82c497effe8a98697a2.jpg" alt="image"><br>
<br>
Детали тут: <a href="http://longwhiteclouds.com/2017/11/14/1-million-iops-in-1-vm-world-first-for-hci-with-nutanix/">longwhiteclouds.com/2017/11/14/1-million-iops-in-1-vm-world-first-for-hci-with-nutanix</a><br>
<br>
Вот вам миллион рандомных IOPS блоком 8K в fio при 0,11ms IO latency.<br>
Это просто не все гиперконвергенции одинаковы :)]]></description>
      <pubDate>Mon, 18 Jun 2018 17:52:40 GMT</pubDate>
      <dc:creator><![CDATA[romxx]]></dc:creator>
    </item>
  

  
    <item>
      <title>18.06.2018 17:50:08 speshuric</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18789315</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18789315</link>
      <description><![CDATA[Нет никакой загадки. Простейший и типичный кейс. Есть уровень, который хранится на HDD 7200 (tier2), и есть его кеш примерно на 10% по объёму на SSD (tier1). Ночью запускается обслуживание БД: резервное копирование, перестроение индексов, пересчет статистик. В итоге утром в tier1 какая-то хрень, а не нужные данные. Просто потому что СХД не обладает достаточной информацией о значении данных.]]></description>
      <pubDate>Mon, 18 Jun 2018 17:50:08 GMT</pubDate>
      <dc:creator><![CDATA[speshuric]]></dc:creator>
    </item>
  

  
    <item>
      <title>18.06.2018 17:41:11 speshuric</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18789301</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18789301</link>
      <description><![CDATA[Есть такая проблема, для каждого вида нагрузки нужны фактически свои политики гуляния по tier'ам. Но вендоры СХД обычно предоставляют рекомендации. <br>
А моё личное мнение, что для СУБД все эти «интеллектуальные» кеши уровня СХД — больше геморроя, чем пользы.]]></description>
      <pubDate>Mon, 18 Jun 2018 17:41:11 GMT</pubDate>
      <dc:creator><![CDATA[speshuric]]></dc:creator>
    </item>
  

  
    <item>
      <title>18.06.2018 17:37:27 speshuric</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18789291</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18789291</link>
      <description><![CDATA[<p>Ну во-первых WAL это всё-таки не random, а seq. Во-вторых WAL может быть и не 4k за порцию, а меньше. Но я согласен, что SSD и тут может давать выбросы. И, кстати, на <strong>выделенных</strong> HDD многие СХД выжимают очень и очень хорошую производительность в этом режиме, так что упираются в каналы. </p><br>
<p>И, как заметил предыдущий комментатор, я расчитываю на прорыв Intel Optane. Посмотрите мой PS про SSD. Более того, если оптаны не обладают каким-то скрытым изъяном, то те скорости (задержки), которые они дают, делают спорным применение SAN/СХД на критичных к производительности приложениях. На VMax/VNC и подобных СХД пока еще никто не заморачивается на roundtrip до конечного приложения в десятки микросекунд.</p>]]></description>
      <pubDate>Mon, 18 Jun 2018 17:37:27 GMT</pubDate>
      <dc:creator><![CDATA[speshuric]]></dc:creator>
    </item>
  

  
    <item>
      <title>18.06.2018 17:27:27 Karpion</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18789263</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18789263</link>
      <description><![CDATA[<blockquote>Например, с того, что сейчас почти везде используются SSD.</blockquote> Я слабо слежу за темой. Но мне кажется, SSD приличного размера (пригодного для корпоративных БД) всё ещё имеют неприличную цену.<br>
<br>
<blockquote>Я не знаю другого продукта на рынке, который называется именно «SQL Server» кроме произведенного Microsoft.</blockquote> «SQL-Server» — это название категории серверов. Аналогично: «FTP-Server». Это как название «хищник» — включает в себя много видов.<br>
Т.к. M$явные маркетологи любят брать название категории для своего продукта — следует уточнять, говорим ли мы о всей категории или же о M$явном продукте.<br>
<br>
<blockquote>Иногда приходится, но очень-очень редко нужно больше двух параллельных дисков (точнее 4 потому что обычно это RAID10).</blockquote> Да не нужен там RAID0 (RAID1 нужен для надёжности). RAID0 даже плох — тормозит в случае, если очередная запись ляжет на два диска (пересечёт границу stripe-блока).<br>
<br>
<blockquote>Страшно. Реально страшно. Вы собираетесь ответить пользователю, что транзакция зафиксирована, а на самом деле нет. При сбое вы потом целостность не соберете.</blockquote> LoL, где я предлагал «ответить пользователю до записи на диск»? Делаем так:<br>
 * Запросы на проведение транзакций копятся в RAM-памяти. Клиентам сообщается: «запрос принят в обработку (т.е. повторно слать не надо), но запрос ещё не завершён».<br>
 * Запросы/транзакции, не конфликтующие по доступу к данным, объединяются в блоки.<br>
 * Затем, при освобождении диска — блок транзакций пишется на диск одной операцией записи. И после этого клиенту можно сказать «транзакция зафиксирована в БД».<br>
<br>
Тут есть тонкость: при сбое питания на сервере — клиент должен определить, что принятый в обработку запрос пропал. И сделать это так, чтобы если запрос не пропал — чтобы он не выполнился дважды.<br>
Это решается присвоением каждому запросу уникального id (как обеспечить уникальность — отдельный вопрос; например, с использованием уникального имени клиента и нумерации запросов силами клиента). Повторный запрос с этим же id — распознаётся сервером как повторный; независимо от того, был ли этот запрос выполнен или пока ещё висит очереди. А если первый запрос погиб при сбое питания — то выполняется как новый.]]></description>
      <pubDate>Mon, 18 Jun 2018 17:27:27 GMT</pubDate>
      <dc:creator><![CDATA[Karpion]]></dc:creator>
    </item>
  

  
    <item>
      <title>18.06.2018 17:26:25 speshuric</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18789261</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18789261</link>
      <description><![CDATA[На самом деле это уже частности. Главная идея в том, что задержка на LUN (или другое вендор-зависимое название) с 100% последовательной записи на порядок меньше, чем когда есть случайные чтения и записи в тот же LUN. Как конкретно железяка подключена, как эта железяка делает быструю запись мне не настолько важно (пока есть доверие, что записано значит может быть прочитано). <br>
Да, СХД типа VNC или VMax это больше, сложнее и дороже, чем рейд-контроллер. Но по большому счету в этой разнице latency «виновата» не СХД, а ОС, которая для одного «физического» с её точки зрения будет держать одну очередь.]]></description>
      <pubDate>Mon, 18 Jun 2018 17:26:25 GMT</pubDate>
      <dc:creator><![CDATA[speshuric]]></dc:creator>
    </item>
  

  
    <item>
      <title>18.06.2018 16:53:22 Yo1</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18789151</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18789151</link>
      <description><![CDATA[в навороченных схд несколько уровней кеширования. «горячие» блоки гуляют по ssd и прочим кешам. поэтому скорость чтения датафайла утром и ночью запросто различаются на порядок.]]></description>
      <pubDate>Mon, 18 Jun 2018 16:53:22 GMT</pubDate>
      <dc:creator><![CDATA[Yo1]]></dc:creator>
    </item>
  

  
    <item>
      <title>18.06.2018 16:47:36 Yo1</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18789123</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18789123</link>
      <description><![CDATA[в навороченных схд несколько уровней кеширования. «горячие» блоки гуляют по ssd и прочим кешам. поэтому скорость чтения датафайла утром и ночью запросто различаются на порядок.]]></description>
      <pubDate>Mon, 18 Jun 2018 16:47:36 GMT</pubDate>
      <dc:creator><![CDATA[Yo1]]></dc:creator>
    </item>
  

  
    <item>
      <title>18.06.2018 16:33:57 devozerov</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18789071</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18789071</link>
      <description><![CDATA[Звучит загадочно. Таблица просто так не расползается по HDD и SSD. Она находится внутри tablespace, который хранит данные в файлах. Вероятнее всего, в вашем случае речь идет либо о кривой конфигурации, либо о неверных выводах.]]></description>
      <pubDate>Mon, 18 Jun 2018 16:33:57 GMT</pubDate>
      <dc:creator><![CDATA[devozerov]]></dc:creator>
    </item>
  

  
    <item>
      <title>18.06.2018 13:57:58 Yo1</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18788403</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18788403</link>
      <description><![CDATA[а как эти навороченные схд сочетаются с оптимизаторами субд? регулярно наблюдаю проблемы когда оптимизатор оракла собрал статистику в момент когда датафайлы активно использовались и сидели в кеше/ssd, а когда пришло время запускать ночной джоб блоки таблиц вытеснились на тормозные hdd. в результате то что оптимизатор считал, что вычитает за 2 минуты нестед-лупом, в реальности долбит хдд часами.]]></description>
      <pubDate>Mon, 18 Jun 2018 13:57:58 GMT</pubDate>
      <dc:creator><![CDATA[Yo1]]></dc:creator>
    </item>
  

  
    <item>
      <title>18.06.2018 11:41:09 n1nj4p0w3r</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18787871</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18787871</link>
      <description><![CDATA[Последовательная запись, как правило проходит мимо весьма небольшого и драгоценного кэша, СХД это чуть большее чем рейд-контроллер из 90х]]></description>
      <pubDate>Mon, 18 Jun 2018 11:41:09 GMT</pubDate>
      <dc:creator><![CDATA[n1nj4p0w3r]]></dc:creator>
    </item>
  

  
    <item>
      <title>18.06.2018 10:57:05 Areso</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18787669</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18787669</link>
      <description><![CDATA[Говорят, эту проблему решает Intel Optane.]]></description>
      <pubDate>Mon, 18 Jun 2018 10:57:05 GMT</pubDate>
      <dc:creator><![CDATA[Areso]]></dc:creator>
    </item>
  

  
    <item>
      <title>18.06.2018 07:59:48 amarao</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18786657</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18786657</link>
      <description><![CDATA[Статья и да, и нет.<br>
<br>
Да — если вы мне продадите устройства, у которых в fsync-режиме (iodepth=1, block=4k, random write 100%) гарантированная минимальная latency 5ms, я буду просто счастлив. Почему? Потому что на современных устройствах (SSD, NVME), пики в реальных бенчмарках оказываются в районе секунд, в идеальных случаях — в районе многих сотен милисекунд.<br>
<br>
fsync — критическое. Например, первый попавшийся SSD диск выдаёт мне 50кIOPS на запись. sustained, iodepht=32, span=100%, randow write 100%, blocksize=4k.<br>
<br>
Но стоит в конфиг теста написать fsync=1, как скорость падает до 300-350IOPS с огромными пиками по latency.<br>
<br>
Если что-то тормозит, надо включить writeback. Если что-то теряет данные и портит базу данных — надо выключить writeback.<br>
<br>
Т.е. я хочу сказать, что max 5ms write latency как SLA, это безумно круто. Проблема в том, что редко кто готов дать SLA на max, обычно это либо avg, либо (у самых честных) — 99% персентиль. А что такого, если 0.01% операций тупит по 10с? Остальное же быстро! (/сарказм).]]></description>
      <pubDate>Mon, 18 Jun 2018 07:59:48 GMT</pubDate>
      <dc:creator><![CDATA[amarao]]></dc:creator>
    </item>
  

  
    <item>
      <title>18.06.2018 05:20:18 kmu1990</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18785957</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18785957</link>
      <description><![CDATA[Это уже другая история. Одно дело сказать, что БД впринципе не может выполнять больше 200 транзакций в секунду, другое дело, что вам для одного логического действия нужно выполнять много последовательных транзакций. Одно утверждение указывает на проблему в БД и сторадже, другое на проблему в ПО, которое использует эту БД.]]></description>
      <pubDate>Mon, 18 Jun 2018 05:20:18 GMT</pubDate>
      <dc:creator><![CDATA[kmu1990]]></dc:creator>
    </item>
  

  
    <item>
      <title>18.06.2018 00:33:44 Miron11</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18785653</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18785653</link>
      <description><![CDATA[Все так, и в комментарии все по — моему расставлено по местам.<br>
<br>
Надо только напомнить, что встав на ножи с меркетингом, приходится помнить о том, чтобы вовремя менять батарейки и если уйти в отпуск, то придется прилететь в течение 48 часов, чтобы включить машины, иначе батарейки сядут.<br>
<br>
Но в общем — то получается экономия как минимум пол миллиона долларов ( самый дешевый SAN ). Хватает на 5 позиций инженеров :) Есть за что бороться.]]></description>
      <pubDate>Mon, 18 Jun 2018 00:33:44 GMT</pubDate>
      <dc:creator><![CDATA[Miron11]]></dc:creator>
    </item>
  

  
    <item>
      <title>18.06.2018 00:08:38 speshuric</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18785637</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18785637</link>
      <description><![CDATA[Если WAL лежит отдельно, то есть много вариантов, как хранилищу отчитаться в ОС, что всё сделано. Многие СХД и RAID-контроллеры отвечают, что «всё записано», когда реально данные только попали в память «с батарейкой». 100% записи, последовательной. Там гора вариантов. <br>
Если вы нагрузку WAL бросите в общий котёл, то ничего этого не получите. Там полно в очереди таких, которым «только справочку получить».]]></description>
      <pubDate>Mon, 18 Jun 2018 00:08:38 GMT</pubDate>
      <dc:creator><![CDATA[speshuric]]></dc:creator>
    </item>
  

  
    <item>
      <title>17.06.2018 23:46:59 Miron11</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18785627</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18785627</link>
      <description><![CDATA[Это не страшно, если транзакции будут накапливаться в очереди и записываться на диск одним большим блоком (одной большой операцией записи).<br>
<br>
Страшно. Реально страшно. Вы собираетесь ответить пользователю, что транзакция зафиксирована, а на самом деле нет. При сбое вы потом целостность не соберете. <br>
********<br>
Нет, WAL это не совсем то, что Вы говорите. Противоречие начинается в вилке, где сходится энергонезависимая память и построчная запись. Поэтому при настройке системы, даже самый глупый, но аккуратный зануда инженер, без диплома ВУЗа ( как я ) первым делом <br>
1. проверяет, если есть энергонезависимая память, её размеры, и рассчитывает, на краешке рукава, сколько её может / будет использоваться при условии, что система испытывает расчетные нагрузки ( их выясняют у бизнеса )<br>
2. принимают решение, пользоваться или нет этим устройством. И если отказываются, то все как в статье, которую Вы написали, а если принимают, то дальше очень интересно, и совсем иначе. Образ этой кэши выстраивается отдельным устройством. И оно имеет права на параллельные процессы. Которые в свою очередь субъект различных правил оптимизации. И если правила достаточно просты ( прослеживая варианты сочетания транзакций ), а система блокировок верно рассчитана, то тогда все очень хорошо на очень не дорогих запоминающих устройствах. И тогда начинается грызня с маркетингом, которые лишаются тех самых процентов от сделки при покупке СХД.]]></description>
      <pubDate>Sun, 17 Jun 2018 23:46:59 GMT</pubDate>
      <dc:creator><![CDATA[Miron11]]></dc:creator>
    </item>
  

  
    <item>
      <title>17.06.2018 23:38:17 Miron11</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/414269/#comment_18785617</guid>
      <link>https://habr.com/ru/articles/414269/#comment_18785617</link>
      <description><![CDATA[Вы]]></description>
      <pubDate>Sun, 17 Jun 2018 23:38:17 GMT</pubDate>
      <dc:creator><![CDATA[Miron11]]></dc:creator>
    </item>
  

      

      

    
  </channel>
</rss>
