Comments 148
AMD выложила все козыри, теперь осталось дождаться ответа NVIDIA.
А рождество не за горами!
А рождество не за горами!
Не отказался бы от такого подарка на НГ :)
круто округлил… давай сразу до десяти, делов-то
радует одно, раньше «самые мощные видеокарты в мире» выходили обычно с ценником порядка 1к, иногда даже дороже… кризис+конкуренция
П.С.извините за слово кризис :)
П.С.извините за слово кризис :)
да вот тоже самое хотел сказать, недорого $600 для «топовой видяхи».
1к за high-end карту? Когда это такое было? Производители уже лет пять точно стараются ориентировать свои топовые карты в сегмент от 500 до 700 долларов максимум.
дык это просто 5970, думаю ещё будет 5970х2 — вот она уже около 1к, думаю, будет.
эх, может быть когда-нибудь и в iMac'и встроят…
зачем? это карта для игр > для игр дешевле купить приставку (если конечно играть не для того чтобы дрочить на АА и шейдеры)
верно, но на приставке моя любимая онлайновая игруля Entropia Universe (движок CryEngine2) не пойдёт… а ради неё собственно и хотелось бы что-то мощнее моей ATI Radeon HD 2600 Pro… а то играю на высоких настройках, но в довольно маленьком окне…
когда на полный экран 1680 x 1050 — довольно ощутимые тормоза, мешающие получать удовольствие от игры…
а только ради одной игрушки покупать отдельный компьютер не очень выгодно… (как с точки зрения места на столе, так и денег на покупку и обновление)
интересно, как этот Apple вообще выбирает какие видюшки ставить в новые аймаки…
оффтоп…
ну, а возвращаясь к теме, где-то уже было тестирование в играх? например, оч хочется узнать, во сколько раз в Crysis'е эта видюшка лучше моей?
когда на полный экран 1680 x 1050 — довольно ощутимые тормоза, мешающие получать удовольствие от игры…
а только ради одной игрушки покупать отдельный компьютер не очень выгодно… (как с точки зрения места на столе, так и денег на покупку и обновление)
интересно, как этот Apple вообще выбирает какие видюшки ставить в новые аймаки…
оффтоп…
ну, а возвращаясь к теме, где-то уже было тестирование в играх? например, оч хочется узнать, во сколько раз в Crysis'е эта видюшка лучше моей?
UFO just landed and posted this here
компьютер-то не для игр позиционируется, видюшка там не на первом месте всегда была… на первом месте — удобство и простота работы, решение задач пользователя…
> Дабы потом накрутить 300% за брен и впаривать лохам.
да никаких 300% за бренд там нет, в Штатах они ведь дешевые…
А вы из зависти что ли считаете обладателей macов лохами? А как вы относитесь к обладателям ламбарджини, например? Или это такой толстый троллинг у вас? :-)
У большинства нормальных людей игры всё же не на первом месте в жизни.
Я, например, когда покупал мак знал, что видюшка не крутая, но мне нужна именно MacOS и никакой не хакинтош, а нормальный мак. Лучше уж игры тормозят, чем будет неудобно работать. Я выбирал по соотношению цена/качество. И выгоднее через годик купить новый мак, чем на тот момент покупать супернавороченный MacPro за большие деньги (150-200 тыс для компьютеров это дорого). Не считаю себя лохом по крайней мере.
Впрочем, чтобы не разводить холивары, я не навязываю своё решение другим, для меня мой выбор самый оптимальный, для кого-то другого может быть и нет. У всех разные финансовые возможности и решаемые на комьютере задачи.
Меня огорчает в первую очередь именно отсутствие предложений (дешевле 100 тыс рублей) с хорошими видеокарточками, а не завышенные в России цены. Хотя и цены тоже :-)
> Дабы потом накрутить 300% за брен и впаривать лохам.
да никаких 300% за бренд там нет, в Штатах они ведь дешевые…
А вы из зависти что ли считаете обладателей macов лохами? А как вы относитесь к обладателям ламбарджини, например? Или это такой толстый троллинг у вас? :-)
У большинства нормальных людей игры всё же не на первом месте в жизни.
Я, например, когда покупал мак знал, что видюшка не крутая, но мне нужна именно MacOS и никакой не хакинтош, а нормальный мак. Лучше уж игры тормозят, чем будет неудобно работать. Я выбирал по соотношению цена/качество. И выгоднее через годик купить новый мак, чем на тот момент покупать супернавороченный MacPro за большие деньги (150-200 тыс для компьютеров это дорого). Не считаю себя лохом по крайней мере.
Впрочем, чтобы не разводить холивары, я не навязываю своё решение другим, для меня мой выбор самый оптимальный, для кого-то другого может быть и нет. У всех разные финансовые возможности и решаемые на комьютере задачи.
Меня огорчает в первую очередь именно отсутствие предложений (дешевле 100 тыс рублей) с хорошими видеокарточками, а не завышенные в России цены. Хотя и цены тоже :-)
ПеКа.jpg
Ну и габариты. Если так пойдет дальше, то значение поддерживаемого разрешения будет идентично размерам карты в мм.
это уже было
Да, пятерочка еле в короб влазила )
О боже, что это? Что за поделка сумрачных гениев из 3dfx? Я так понял, требует отдельного внешнего блока питания?
Кстати по габаритам 5970 больше уже будет :)
Кстати по габаритам 5970 больше уже будет :)
Я помню, у меня была такая же помоему…
Только без блока питания.
PS Вот почему она не работала?=)
Только без блока питания.
PS Вот почему она не работала?=)
Я думаю, вы ошибаетесь. 6000 были изъяты из продажи почти сразу, а партии уничтожены, в связи с продажей компании конкуренту. На сегодняшний момент владельцев таких карт в РФ и странах СНГ можно пересчитать по пальцам. Последняя на моей памяти ушла на ибее примерно с год назад в нерабочем состоянии за стоимость около 700$.
Не вспомню даже какой это был год… Помню вставлялась Voodoo в слот PCI, и у меня так и не заработала, по этой причине вернулась назад на радиорынок, внешне похожа была на эту (4 проца 3dfx), возможно надписи на чипах были монохромные.
*предвкушает гемор с дровами под линух
уйди, противный!
Во что вы собрались играть под линухом с такой видеокартой? =)
Играть в наивные надежды, что когда то флеш под никсами перестанет глючить
Нынче видеокарты используются не только для отрисовки графики, но и для сложных математический расчётов. Особенно, эффективность решений заметна в том случае, если задача хорошо параллелится. Например, один мой знакомый реализует расчёт молекулы белка именно на видеокарте. Такое решение существенно превосходит по соотношению цена/результат решения на базе обычных процессоров.
Зачем тебе такое под линухом?
хочу :'(
И сколько такая махина кушает?
А Вы в разрешении уверены — 7680x1600? Что-то многовато получается…
Судя по спецификации оно 2560x1600.
Судя по спецификации оно 2560x1600.
Это с использованием технологии Eyefinity
А, понятно. Не понял, что речь идёт о суммарном разрешении трёх дисплеев. Явно это не было сказано. Просто сначала чуть со стула не упал, увидев цифру вертикального разрешения более 7 тысяч. Сразу полез смотреть спеку. В спеке никто эти разрешения не суммировал. Поэтому и удивился.
7680=2560*3 как раз на три монитора по ширине.
Главное, чтобы кулер не гудел как паровоз.
Смазывать просто чаще надо
Там беруши в комплекте.
Кстати там испарительная камера стоит в стоковой системе охлаждения. В простое греется на жалких 38 градусов и турбина естественно должна очень тихо работать. При нагрузке судя по тестам уровень шума находится на уровне 65 дБ, это меньше чем у 295GTX и 4870х2. При этом температура также очень низка для такой мощности.
Суперкомпьютеры скоро будут строить из видеокарт
неужеи производители видеокарт наконец-то обогнали производителей игр?
На словах да, в практике нет!
я просто редко играюсь, но что не пойдет на этом?
Кризис. С уважением, К.О.
Да? Вроде как даже на GeForce 9600 особо тормоза не замечались
=) я о том что он никогда не пойдёт в максимально разрешении 60 кадров.
А про «особо тормоза не замечались» могу сказать что для меня, например, приемлемым количеством является именно 60 кадров в 1920*1200. Естественно я имею ввиду максимальную детализацию со сглаживанием хотя бы 2X
А про «особо тормоза не замечались» могу сказать что для меня, например, приемлемым количеством является именно 60 кадров в 1920*1200. Естественно я имею ввиду максимальную детализацию со сглаживанием хотя бы 2X
Адский, адский геймер.
Пойдет. 65 fps при 1920х1080 с 4xAA. Но только на разогнанной карте. Пруф для тех, кто не верит tiny.cc/IstZY
а как же вы раньше играли? в 320х200 ^_^
я запускал его на AMD Athlon 64 X2 6400+ и GeForce 9800GTX+, 30-35 fps, ниже не опускается…
видимо да, а то как rockstar сделали gta 4, так фиг знает сколько ей видеокарт надо, чтобы запустить на максимуме, хотя я думаю это практически нереально, так как у нее плохая оптимизация.
не помню, что там с графикой, если честно, давно не играл в нее
Да что вы говорите? HD 4850, max, 1920x1200, фпс ниже 35 не опускается
класс, клевая видюха, надеюсь, что моя любимая Nvidia всё же обгонит эту новинку, всегда так было, выпустила ati, потом nvidia сделала круче, будем ждать
И все-же от терафлопсов до FPSа в играх — долгий путь :)
По результатам тестов — она превосходит GTX295, но не на много.
И от себя добавлю, я вообще несколько предвзято отношусь к двухчиповым решениям… т.к. во первых нужен очень мощный процессор, а во вторых не все приложения однозначно реагируют на 2 GPU (в плане производительности).
По результатам тестов — она превосходит GTX295, но не на много.
И от себя добавлю, я вообще несколько предвзято отношусь к двухчиповым решениям… т.к. во первых нужен очень мощный процессор, а во вторых не все приложения однозначно реагируют на 2 GPU (в плане производительности).
Хочу чтобы Windows 7 SP1 запускалась на видеокарте без установки CPU.
я тоже, вообще думаю, что многие этого хотят =)
Есть сборка линукса, которая полностью работает на видеокарте (не помню, то ли нвидия, то ли ати). Там дело в том, что мощность видеокарты для вычислений общего назначения пока не может сравнится с ЦП. Сильно оптимизированные параллельные вычисления (графика, научные штуки, и тэдэ) — пожалуйста. Но говорить про ОС на видеокарте пока, увы, рано.
Нет такой сборки Линукса. У вас сформировалось неправильное впечатление на основе слухов.
Хорошо, есть технология Fermi, с помощью которой можно использовать возможноти видеокарты NVidia как ЦП. Там же сказано, что придётся сильно-сильно доработать ядро.
Не есть, а будет. И «использовать возможности видеокарты как ЦП» вообще ничего не говорит о конкретных возможностях. И единственным источником слуха является Fudzilla, которую уже ловили как на лжи, так и ламерстве. И даже Fudzilla пишет, что им сказали о теоретической возможности использования ОС вообще, а не конкретно линукса, и есть куча причин, по которым линукс туда будет не портируем.
Bullshit
Скоро на масштабных фото разъем PCI-E будет выглядеть в виде точки, которую будут обводить красным кружочком и делать подпись — это разъем.
Только мне показалось, что корпус видеокарты обтянут кожей?
И размеры видеокарт становятся все больше и больше. Я точно доживу до того момента когда очередное топовое решение от… будет занимать половину объема системного блока.
А что все в игры то уперлись, для графики она тоже будет хороша, фанаты АТИв этом году с выходом многих пакетов были расстроены что многие из HD серии уже не поддерживаются. а тут такая радость да еще и за 600 у.е.
А на счет ответа от nVidia, — она может тоже уже сделала подобную карту но не рассказала об этом =) так что и пол года ждать не прийдется
А на счет ответа от nVidia, — она может тоже уже сделала подобную карту но не рассказала об этом =) так что и пол года ждать не прийдется
Меня всегда интересовало, кто может позволить покупать себе такие видюхи? И главное зачем?
Мы с моей ATI HD3850 не испытываем никакого дискомфорта.
Мы с моей ATI HD3850 не испытываем никакого дискомфорта.
может вы просто и не играетесь :)
ибо полно таких игрух, которые из-за своей неоптимизации, напрягут и такого монстра
ибо полно таких игрух, которые из-за своей неоптимизации, напрягут и такого монстра
Я могу ;-) Сейчас у меня HD5890 стоит, комп сам собирал.
Играть, батенька, с высоким качеством графики, а главное — на большом разрешении. Если у вас 30" монитор, без такой видеокарты просто не обойтись :)
У меня тоже 3850, но для gta4 ее уже не очень хватает.
У меня тоже 3850, но для gta4 ее уже не очень хватает.
Честно говоря в мою матрицу восприятия мира не укладывается видюха стоимостью некислого компа с недорогим монитором.
Если игруха не тянется нормально, не грех прикрутить опции.
1024x768? — ок
AA: off? — да и фиг с ним
Если игруха не тянется нормально, не грех прикрутить опции.
1024x768? — ок
AA: off? — да и фиг с ним
Это вопрос масштабов. Кому-то и купить машину по цене квартиры в центре Москвы не проблема. У меня вот монитор 30", ибо для работы полезен крайне. Если играть на разрешении ниже родных 2560×1600 то картинка выглядит отвратно. Да и вообще, все дефекты изображения хорошо видны. Не покупать же для игр второй монитор, поменьше :)
Я тоже не собираюсь покупать такие видеокарты :) Высшая цена, которую я готов заплатить за видеокарту — 7000 рублей, и то — это года на 2 минимум.
Но играть хочется, получая и эстетическое удовольствие, коего получить с разрешением 1024*768 на мониторе с родным разрешением 1680*1050 не получится :)
Но играть хочется, получая и эстетическое удовольствие, коего получить с разрешением 1024*768 на мониторе с родным разрешением 1680*1050 не получится :)
UFO just landed and posted this here
Я могу ;)
Для игр, конечно же :)
Для игр, конечно же :)
Ну вот, скоро моя HD 5890 перестанет быть самой крутой.
C другой стороны, если это просто двучиповая карта на тех же чипах, что 5890, то лучше будет докупить вторую карту в соседний слот. Тогда будет использовано две линии PCI-E X16, а не одна на оба чипа в одном слоте.
C другой стороны, если это просто двучиповая карта на тех же чипах, что 5890, то лучше будет докупить вторую карту в соседний слот. Тогда будет использовано две линии PCI-E X16, а не одна на оба чипа в одном слоте.
только вот подороже выйдет
Ооо, карта из будущего?)) ATI не выпускала 5890, у нее топовая 5870)
Ну вот, скоро моя HD 5890 перестанет быть самой крутой.Знай, что жребий воистину горестен твой,
Коль польстился ты, друг, на процессор крутой:
Он тебе обойдётся дороже алмаза,
Через год превратившись в булыжник простой.
(Источник, увы, не помню.)
UFO just landed and posted this here
UFO just landed and posted this here
эх. А ведь всего совсем недавно, в начале этого века я читал разгромную статью в уже почившем шикарном журнале Game EXE про враньё Apple и nVidia с его новым Жифорсом и эпическими на тот момент 10 гигафлопсами. Как сейчас помню фигурировал ещё не вышедший тогда Doom 3, который автор статьи тоже журил за «технологичность» ролика, а не присуствие долгожданного экшена. Долгострой после этого строили ещё 3 года. Прикольно так вспоминать.
А сейчас даже ничего особо по графике не удивляет — со времен третьего Дума и второй Халвы по сути ничего особенного не сделали. Даже Кризис не впечатлил (разве что рекламный, который показывали до игры, и который такое ощущение что чуть ли не на Директ Икс 20 шел).
А сейчас даже ничего особо по графике не удивляет — со времен третьего Дума и второй Халвы по сути ничего особенного не сделали. Даже Кризис не впечатлил (разве что рекламный, который показывали до игры, и который такое ощущение что чуть ли не на Директ Икс 20 шел).
декабрь 2002 года журнал? Он у меня где-то валяется еще…
при упоминании про Game EXE у меня прокатилась скупая слеза — замечательное издание было
Ждем очередного технологического прорыва с выходом четвертого поколения консолей. Пока же из них просто выдавливают все соки (совсем крохи остались), значит выход не за горами.
Два чипа? Полезную видеопамять снова нужно делать пополам от написанного на коробке?
Когда они уже решат этот бред с работающей половиной видеопамяти. Нафига вообще сувать туда еще видеопамять, которая все равно не будет работать.
Когда они уже решат этот бред с работающей половиной видеопамяти. Нафига вообще сувать туда еще видеопамять, которая все равно не будет работать.
Кстати эта карточка Получила награду в CES 2010 Awards
А физика на GPU ATI вообще ожидается? Хорошие ведь видеокарты и недорогие, у самого HD3870, кроме Crysis всё работает идеально. Физику хочу!
Вкусняшка, хочу.
Sign up to leave a comment.
ATI Radeon HD 5970: пять терафлопсов