Как стать автором
Обновить

Комментарии 49

Как же тогда дела обстоят с 960? Там еще меньше высокоскоростной памяти?
А там просто стоят 2 GB всего. Причём на 128-битной шине. И за эти деньги я бы взял R9 280/280X. Она куда интересней по железу.
Radeon, увы, не для linux =(
Не верю, что он настолько хуже будет работать, что не покроет разницу в производительности. Хотя, признаться, под линуксами не сижу.
Под Mac OS X на многих (по крайней мере среднего уровня) платах AMD 3d ускорение в два раза медленнее, чем на этом же железе под Windows 7 (проверено на Unigine Heaven с одинаковыми настройками). Для сравнения, у той же NVidia разница в скорость только 20% в среднем…
У OS X просто OpenGL стэк говно. На нёй и Diablo 3 работает медленнее (имеется макбук с Nvidia 650M), и фотошоп, чем под виндой на том же буке. Так что эт не косяк AMD, а просто хреновая реализация OpenGL.
Я не случайно привел сравнение с NVidia, где разница в скорости с Windows 7 всего 20 процентов. Это не к тому, что OpenGL стек хороший, а к тому, что от AMD тоже многое зависит. При том же стеке NVidia справляется лучше.
Так получается что лучшая графика на винде? Какой кошмар!
Таки получается. OS X вообще в плане 3D не самый передовой продукт, и во всяких Pixar'ах и прочих Disney'ях сидят на HP и Dell.
А какая связь между Mac и Linux дровами? Драйверы под Мак пишет Яблоко, а не AMD или линуксоиды.
Драйверы под Mac пишет производитель оборудования (NVidia/AMD соответственно)
Впрочем, как и под Linux.
Речь про NVIDIA и AMD
www.linkedin.com/jobs2/view/40868075?trk=job_view_similar_jobs&trk=job_view_similar_jobs
Responsibilities span from low-level GPU driver and compiler development to implementing APIs such as OpenGL and OpenCL.
Но это под iOS/PowerVR
Под GCN, похоже ядро таки пишет AMD.
www.simplyhired.com/job/software-engineer-job/amd-seamicro/gz42he24co?cid=gdxctmbxydqrslxbuddgauuiyuxioned
Это не так. И как раз Unigine Heaven не показатель, если вы не выставите одинаковый по возможностям OpenGL режим. По-умолчанию Heaven на Windows 7-8 запускается в Direct X 11 и всегда будет быстрее OpenGL версии на Windows (процентов на 20-30), и на OS X (до 50% с HDR и AO). А вот если поставить на это же железо полноценный линукс (предположим, что он станет и заработает как надо), то OpenGL производительность приятно удивит.
Причин этому достаточно, думаю тов. binstream получше может объяснить, но в целом комментарий ниже точно описывает ситуацию.
Не верю, что он настолько хуже будет работать

кажется, у вас мало опыта.

HD6950, linux mint cinnamon, последние драйвера Omega от AMD — multihead конфигурация не сохраняется — с ней не стартует Cinnamon; VDPAU не работает; в CS:GO 45-50 fps + постоянные фризы; если много раз переключить терминал с иксового вывода на консоль и обратно, в определенный момент всё зависает насмерть; и самый финиш — фликеринг OpenGL на втором мониторе, например, окон Chrome.

та же самая машина и набор софта, но видео GTX960 с последними драйверами NVIDIA — единственная проблема это VDPAU, которое не умеет в некоторые криво закодированные файлы (всякая экзотика в духе 10bit video), но это не проблема VDPAU. Все остальные проблемы ушли.
У меня 6970 и все неплохо. Kubuntu 14.10, драйвера flgrx
А нет какого-нибудь мануала, что делать если нужен линукс и радеон уже куплен? =)
Проприетарные дрова просто попа! То фриз происходит во время загрузки, то монитор не выходит из энергосбережения.
Видюху сдавать в магазин уже поздно.
r9 270x, kubuntu 14.10.
Одно из двух: всегда юзать самый распоследний Catalyst, устанавливая вручную (если никогда не пробовали — лучше не лезть), или же выпилить его и сидеть на стандартных. Я за второй вариант: свободные далеко не такие быстрые, но в 99% случаев стабильны как скала.
Мне вот интересно, почему с дровами под Linux такая чехарда всегда. Под него сложнее писать? Или просто никому не впёрлось из-за мизерной доли рынка?
Отчасти — из-за самих линуксоидов. Многие из них противятся использовать несвободный софт, поэтому хороший, качественный драйвер (NVIDIA) поливают как могут, а альтернативы почти нет. Открытый же NVIDIA сделать не может — патенты и прочее.
У AMD еще веселее — там целых две разных команды разработчиков для свободного драйвера и Catalyst. Catalyst (как и NVIDIA) делит большую часть кодовой базы с Windows, поэтому работает быстро, но нестабильно. Свободный же пишут с нуля, строго следуя всемозможным спецификациям и стандартам. При этом внутри самой AMD свои же разработчики борятся с руководством, чтобы выбить у них документацию и прочее, т.к. все под NDA.
Добавляет то, что эти самые стандарты расплывчаты — у NVIDIA они одни, у AMD — другие, а официальны — третьи. И разработчики, собственно, софта, не знают, на что ориентироваться.
Таким образом, есть NVIDIA, у которой драйвер вроде и работает, но неправославен и слегка на костылях, и есть AMD, у которой целых два — один на костылях и работает только в половине случаев, а второй православен и работает, но отстает на пару лет по развитию.
>> При этом внутри самой AMD свои же разработчики борятся с руководством, чтобы выбить у них документацию и прочее, т.к. все под NDA.
Да что вы говорите. А вот это что?
developer.amd.com/resources/documentation-articles/developer-guides-manuals/
Некоторая информация скрыта, но она относится к нюансам реализации.
Да что вы говорите.

Лишь знаю, что это упоминал один из разработчиков на форумах Phoronix около года назад.
Good luck этому разработчику получить хоть какую-нибудь информацию о любом другом чипе, кроме разве что VideoCore.
Лично мне вполне хватает документации по Radeon, доступной в открытом доступе, для низкоуровнего программирования.
Вы меня, кажется, не совсем правильно поняли. Я говорил о разработчиках свободного драйвера radeon, а не прикладного софта.
Я работаю на уровне железа.
Забыл написать что свободные радуют артефактами с OpenGL композитными менеджерами.
Тогда можно просто проапгрейдиться до 15.04. Релиз уже через месяц, да и проблема с драйвером наверняка пофикшена.
=) Забавно, но на ней я успел побывать, ужаснулся проблемам с графикой и решил что они как раз из-за не вышедшей версии дистриба. Но, оказалось что это дрова.
Еще стоит добавить, что на ноутбуках со свободными начинается жесть по энергопотреблению (и соотв. перегреву).
Скажите, чем таким можно напрягать видеокарты? Мой 660Ti 192bit стабильно вытягивал на ультрах все игры 2012-13 годов, ну сейчас будет на высоких. Что я делаю не так?
Разрешение монитора какое? Я когда сменил 1600х1050 на 1920х1200 пришлось и видеокарту менять впоследствии.
Вы меня за идиота держите? :) 1920х1080 офк. А у вас какой-то монитор нестандартный. 16:10?
За идиота я никого не держу, просто когда указывают видюху и настройки, неплохо указывать разрешение. 16:10 более для работы.
Я думаю, если у меня машина, которая

стабильно вытягивал на ультрах все игры 2012-13 годов


То тут само собой подразумевается 1920, а не 800х600. В работу с графикой не лезу, да думаю для нее не ширпотребные геймерские карты нужны.
Давайте вы предоставите пруф Crysis 3, Far Cry последнего, Assasins Creed и Batman бенчмарков. И Unigine на всякий случай. :) И тогда к вам не будет вопросов. Чтобы ультра, 1920х1080, сглаживание х4 и анизотропная фильтрация х16.
Жду ответа от ragequit
Хватит одного BF4, который для этого требует GeForce GTX 780.
Да что угодно, лишь бы пруф предоставил.
Поиграйте в WorldOfTanks
//я серьезно, кучу вопросов снимите
WoT — отдельная тема для разговоров, там проблема в древнем BigWorld, эпично-долгой разработке и кривой оптимизации больше, чем игре как таковой.

//И да, не понаслышке знаю о проблемах WoT, отработал 1.5 года в тех. саппорте ВГ
Лолчто? Вы сейчас с кем разговариваете?

Мой ответ был примером к вашему восклицанию:
> «стабильно вытягивал на ультрах все игры 2012-13 годов»
Это неправда!

Конкретно у WoT много проблем, там не только в процессор все упирается.
Как не удивительно, но тот же WoT у меня летал, просадки ФПС на ультрах были максимум до 45 FPS. В свое время, не знаю как сейчас, была засада с работой на топовых картах, пониманию новых версий драйверов (особенно дров NVidia), не пахал SLI и так далее.

WoT — плохой пример, у него много болезней конкретно из-за его движка и весьма, гхм, специфичного процесса разработки.
WoT нужен максимально быстрый проц и упирается он в первую очередь в него. А ещё над выкинуть движок, собранный из палок и говна. Поиграйте в WarThunder. Сравните производительность и графику. Сделайте выводы.
А ещё над выкинуть движок, собранный из палок и говна.

Ну, ВГ еще в 2013 купили BigWorld (компанию), но на вторую версию движка так игру и не перебросили, предпочли дальше грызть кактус костылей-велосипедов.
Видимо, количество велосипедов из костылей уже настолько велико, что проще сделать WoT2 на новом двигле, чем переносить старый. Ну и разумеется с переносом начнётся «верните как было, теперь не торт».
Вы не поверите, подобные идеи стали появляться еще, в уже далеком, 2012 году во многих умах :)
Зарегистрируйтесь на Хабре, чтобы оставить комментарий