Когда в прошлом году Intel добавила в свои процессоры графическое ядро, это было воспринято с одобрительным пониманием, но, что называется, без фанфар. В конце концов, если до этого в CPU переехал контроллер памяти, так чего бы не перевести туда же остальной функционал северного моста? И стала встроенная графика жить да поживать повсеместно, от Intel Atom до мобильных Core i7. Кто хотел – использовал ее, кто не хотел – выбирал компьютер с дискретным ускорителем. В общем, ничего, по большому счету, не изменилось. А то, что графическая составляющая потихоньку помогала CPU в декодировании видео, так это вроде нормально, привыкли.
Между тем коллегам по бизнесу идея нравится, и скоро в их процессорах тоже обоснуются графические ядра. Но этим не ограничится: в планах использовать последние в максимальном спектре задач, и даже официальное именование чипов поменяется с CPU на APU. Вообще, по мнению AMD, число ядер x86 нельзя увеличивать бесконечно, потому что начинают возникать «бутылочные горлышки», снижающие эффективность от преумножения ядер. А GPU – он как бы совсем рядом, но, в силу своей непохожести, обычным ядрам не мешает, и ежели его надрессировать…
Между тем коллегам по бизнесу идея нравится, и скоро в их процессорах тоже обоснуются графические ядра. Но этим не ограничится: в планах использовать последние в максимальном спектре задач, и даже официальное именование чипов поменяется с CPU на APU. Вообще, по мнению AMD, число ядер x86 нельзя увеличивать бесконечно, потому что начинают возникать «бутылочные горлышки», снижающие эффективность от преумножения ядер. А GPU – он как бы совсем рядом, но, в силу своей непохожести, обычным ядрам не мешает, и ежели его надрессировать…