26 января 1998 компьютерный мир обошла новость, что находящаяся в критическом финансовом положении DEC была куплена Compaq Computer Corporation и что сделка находится в процессе утверждения собраниями акционеров обеих компаний. Акционеры DEC ратифицировали соглашение 2 февраля 1998. Сумма сделки составила 9,6 млрд. USD, что было значительно выше рыночной капитализации компании до продажи — приблизительно 7 млрд. USD. Начавшийся вскоре процесс интеграции подразделений DEC в структуры Compaq привёл к тому, что уже через полгода DEC окончательно прекратила своё существование, когда 11 июня 1998 её акции перестали котироваться на Нью-Йоркской фондовой бирже. Стоит отметить, что переговоры между DEC и Compaq велись ещё с 1995, но сорвались в 1996 из-за позиции высшего менеджента DEC, настаивавшего именно на слиянии компаний, а не на поглощении. Тем не менее, вполне закономерен вопрос: как могло так случиться, что огромная компания (по состоянию на 1989: почти 130 тыс. человек персонала, общий объём продаж около 14 млрд. USD в год, то есть второй показатель по отрасли после IBM), с очень высоким исследовательским потенциалом и значительной производственной базой, была вынуждена продать себя крупному сборщику компьютерной техники из Техаса? Однозначный ответ на этот вопрос никто так и не дал, хотя причины назывались всякие и разные.
Давным-давно Кеннет Ольсен, основатель, президент и главный исполнительный менеджер DEC почти до самого её конца, сказал, что хорошие с инженерной точки зрения продукты продают себя сами. Следовательно, в рекламе или ином продвижении не нуждаются. Ему также принадлежит изречение, что нет причины, по которой каждый захотел бы иметь компьютер у себя дома. Возможно, эти мысли оправдывали себя в "добрые старые времена", когда компьютерная техника производилась в небольших количествах профессионалами для профессионалов и стоила немалых денег, но не в конце 20-го века, когда её продавали миллионами штук в год и когда самый обыкновенный компьютер можно было собрать максимум за час свободного времени при помощи отвёртки и комплектующих из ближайшей компьютерной лавки, причём за сумму, на порядок меньшую выплачивавшейся за шкафообразный агрегат из тех самых "добрых старых времён". В конце концов, можно было купить его целиком в том же магазине, да ещё и с бесплатной доставкой на дом. А если учесть, что покупать такой компьютер будет не профессиональный менеджер, прекрасно осознающий глубину смысла термина TCO (Total Cost of Ownership, совокупная стоимость владения), а некая тётя Маша или представитель подрастающего поколения Вовочка, в принципе не отличающие транзистор от резистора, то таких покупателей следует мотивировать явно не инженерными достоинствами потенциального приобретения.
Ещё в самом начале развития архитектуры Alpha высшим руководством DEC был допущен большой стратегический просчёт. Первые прототипы EV4 были продемонстрированы DEC на компьютерной конференции в феврале 1991. Среди присутствующих были инженеры Apple Computer, которые в то время занимались поиском новой процессорной архитектуры для будущих компьютеров компании. Ничего удивительного, что возможности EV4 произвели на них впечатление. В июне того же года Джон Скалли (John Sculley), в то время главный исполнительный менеджер Apple, встретился с Кеннетом Ольсеном и предложил ему использовать новый процессор DEC в будущих Маках. Ольсен отказался, мотивируя тем, что процессор пока не готов для рынка, а архитектура VAX ещё не исчерпала своих возможностей. Через несколько месяцев было объявлено, что новые Маки будут использовать процессоры PowerPC от альянса Apple, IBM и Motorola. Таким образом, DEC упустила отличную возможность достижения хороших продаж Alpha-комплектующих в долговременной перспективе и продвижения архитектуры на рынке обычных компьютеров, а заполучила ещё одного конкурента. Позже Вильям Деммер (William Demmer), бывший вице-президент подразделений VAX и Alpha, ушедший в отставку в 1995, заявил в интервью Business Week от 28 апреля 1997: "Кен не хотел, чтобы будущее компании зависело от Alpha."
DEC сама производила как процессоры Alpha, так и наборы системной логики для них на своей фабрике в Хадсоне (Массачусетс, США), а также многочисленную периферию. Она также разрабатывала и изготовляла материнские платы для обычных компьютеров и рабочих станций под названием "Evaluation Board" ("EB") или "AlphaPC", доступные по оптовым каналам, хотя и в довольно ограниченном ассортименте. Несмотря на то, что почти все Alpha сервера DEC за исключением некоторых моделей начального уровня были многопроцессорными, ни одна из этих материнских плат возможность установки 2 и более процессоров не поддерживала. Тем не менее, все материнские платы были выполнены на высоком техническом уровне, хотя и стоили недёшево, впрочем, как и процессоры Alpha. Документация по изготовлению этих плат была в свободном доступе, поэтому некоторые компании (Aspen, Polywell, Enorex, др.) производили их клоны. Единственной компанией, разработавшей и производившей свои платы, была DeskStation. В целом, можно смело утверждать, что приоритетом для DEC была продажа собственных рабочих станций и серверов, а не наполнение рынка основными комплектующими для их сборки. Конечно, такой подход к делу позволял добиться более высоких доходов в кратковременной перспективе, но шансы на завоевание большой доли рынка обычных компьютеров и рабочих станций можно было считать равными нолю.
Несмотря на все попытки, DEC так и не смогла сделать цены на свою продукцию (в первую очередь, на процессоры, наборы системной логики и материнские платы) доступными большинству потенциальных покупателей. Например, 266МГц и 300МГц EV5 по состоянию на начало 1995 стоили соответственно 2052 и 2937 USD в партиях по 1000 шт. — непомерные цены, даже учитывая среднюю стоимость производства приблизительно в 430 USD за шт. В расчёте на один "попугай" SPECint92, EV5 стоил приблизительно в 2 раза дороже альтернативных RISC-процессоров других производителей. При этом стандартный набор системной логики к нему, DEC Alcor, продавался не в пример дешевле — 295 USD за каждый в партиях по 5000 шт. В то же время, материнская плата на его основе, EB164 с 1Мб B-cache, вместе с процессором и 16Мб оперативной памяти (чего, кстати, было явно недостаточно для многих задач того времени на Alpha), предлагалась по цене около 7500 USD.
Хотя Alpha и была изначально объявлена открытой архитектурой, консорциум по её развитию так и не был создан. Разработки велись усилиями DEC, иногда сообща с Mitsubishi. Получалось, что хотя собственно архитектура и была свободной де-юре, её основные разработки являлись очень даже закрытыми де-факто и подлежали платному лицензированию (если вообще подлежали). Естественно, это мало способствовало успешному продвижению на рынке. Например, если бы DEC оставила EV4 и EV5 за собой, а LCA4 сделала открытой разработкой безо всяких дополнительных лицензионных отчислений или прочих обязательств, то этот ход мог бы серьёзно изменить расстановку сил на рынке обычных компьютеров. Стоит отметить, что вскоре после выпуска EV4 руководство DEC предлагало лицензировать производство процессора Intel, Motorola, NEC и Texas Instruments. Но эти компании имели собственные разработки и перспектива играть второстепенную роль в чужом театре их мало интересовала, а потому они отказались. Не исключено, что условия могли быть неприемлемы или что-нибудь ещё.
Далее, даже самый быстрый компьютер без операционной системы и нужного программного обеспечения является всего лишь дорогим источником шума и обогрева окружающей среды. Свою Alpha-продукцию DEC позиционировала для Windows NT, Digital UNIX и OpenVMS, причём именно в таком порядке приоритетности. Оно бы и ничего, но...
Windows NT — это операционная система, изначально ориентированная на пользователя, а не на программиста, так как не поставлялась с какими-либо средствами для разработки программного обеспечения, а поэтому сильно зависела от откомпилированного для неё добра, в первую очередь, коммерческого. Если смотреть фактам в лицо, то количество программ, доступных для Alpha, отличалось в разы от аналогичного показателя для i386. В некоторой мере положение смягчал FX!32, выпущенный в 1996 командой Антона Чернова (Anton Chernoff), отличный эмулятор и транслятор кода x86 в код Alpha. В среднем, от падения производительности на 40% по сравнению с изначально откомпилированным под Alpha исходным кодом он всё же избавить не мог. Далее, если рассматривать драйвера, то тут FX!32 вовсе ничем помочь не мог, поэтому дела обстояли ещё хуже — очень немногие производители сочли выпуск версий для Alpha целесообразным, поэтому приходилось рассчитывать, в основном, на милость Microsoft и DEC. В конце концов, Windows NT (как 3.51, так и 4.0) была 32-битной ОС, a поэтому была не в состоянии полностью раскрыть потенциал 64-битной архитектуры Alpha. Тем не менее, все эти оказии не мешали DEC продвигать свои Alpha-системы под рекламным лозунгом "Рождены для работы с Windows NT" ("Born to run Windows NT"). В общем, такая ОС не должна была позиционироваться как основная для архитектуры Alpha, хотя собственно факт её существования был большим плюсом на рынке рабочих станций.
OpenVMS для Alpha произошла от 32-битной VAX/VMS ОС, разрабатываемой с 1976 для машин DEC VAX. В 1990 программисты DEC начали работу над проектом по портированию VAX/VMS 5.4-2 на Alpha, и эта задача была завершена к ноябрю 1992 с выпуском OpenVMS AXP 1.0, за которой в июне 1993 последовала OpenVMS VAX 6.0. Имела место небольшая путаница с номерацией, так как следующий выпуск OpenVMS в апреле-мае 1994 был 6.1 как для VMS, так и для Alpha. Следующий концептуальный выпуск — 7.0 — состоялся в декабре 1995. Среди многочисленных усовершенствований наконец-то появилась возможность использовать 64-битное виртуальное адресное пространство на Alpha. Compaq начала портировать OpenVMS с Alpha на Itanium в 2001, а основной объём работ был завершён к выпуску 8.0 в июне 2003. Первым унифицированным выпуском OpenVMS для архитектур Alpha и Itanium был 8.2 (февраль 2005). Compaq заявила об окончании активной поддержки VAX в августе 2000, поэтому разработка OpenVMS для VAX не продвинулась далее выпуска 7.3, хотя обычная поддержка всё ещё доступна от Hewlett-Packard по состоянию на 2011. OpenVMS 8.4 для Alpha и Itanium (дата выпуска: июнь 2010) является текущей версией, которая разрабатывается, продвигается и поддерживается Hewlett-Packard.
Digital UNIX имеет иные корни. Первые UNIX рабочие станции от DEC работали под управлением Ultrix, собственной ОС, произошедшей от 4.2BSD с некоторыми функциями AT&T System V. Она была изначально выпущена в июне 1984 для архитектур VAX и PDP-11, но позже была портирована на MIPS (1988) и стала основной ОС для первых RISC рабочих станций компании: DECstation 2100, DECstation 3100 и DECstation 5000. Они выпускались до 1994, когда были окончательно вытеснены рабочими станциями на основе архитектуры Alpha. Часть кода Ultrix была собственностью AT&T, поэтому DEC была ограничена условиями соответствующего лицензионного соглашения. Это были времена судебных баталий в мире UNIX, поэтому DEC вместе с IBM, Hewlett-Packard и другими ведущими корпорациями в 1988 основала Open Software Foundation (OSF) для противодействия AT&T и Sun Microsystems. Эта организация выпустила UNIX-подобную ОС под названием OSF/1 в декабре 1991, которая была лишена какого-либо кода AT&T. DEC предлагала эту ОС почти для полного ряда рабочих станций и серверов Alpha под названием OSF/1 AXP. Стоит отметить, что некоторые модели всё же позиционировались только с Windows NT, так как их прошивки не позволяли запускать OpenVMS или какую-либо другую производную UNIX. OSF прекратила разработку этой ОС в 1994, поэтому DEC её продолжила самостоятельно и переименовала ОС в Digital UNIX с версией 3.2 в 1995. Название ОС подверглось изменению ещё раз благодаря Compaq, которая предпочла иметь Tru64 UNIX начиная с версии 4.0E (апрель 1999). Текущая версия 5.1B-6 (дата выпуска: октябрь 2010) разрабатывается, продвигается и поддерживается Hewlett-Packard.
Итак, что же в итоге? OpenVMS и Digital UNIX — это надёжные и масштабируемые коммерческие ОС, которые так и не обрели действительно широкой популярности из-за высоких цен. В частности, одна 2-пользовательская лицензия на Digital UNIX 4.0 стоила 795 USD в 1996. Естественно, исходный код этих ОС был закрытым. Хотя с ними были связаны и другие сложности, такие как ещё более ограниченная поддержка аппаратной базы, чем у Windows NT, но получи хотя бы одна из этих ОС свободу вместе с теми отличными инструментами для разработки программного обеспечения от DEC, то это могло серьёзно укрепить рыночные позиции архитектуры Alpha.
DEC никак не поддерживала бесплатные операционные системы с открытым кодом, хотя первая из них, NetBSD, была портирована на Alpha в 1995, а вслед за ней — Linux, OpenBSD и FreeBSD. Это было как-то странно, поскольку и по сей день эти ОС популярны в мире Alpha, а их потенциал был очевиден даже на то время, постоянно увеличиваясь. Кроме того, эти ОС обеспечивали не худшее быстродействие по сравнению с коммерческими Digital UNIX и OpenVMS, сопоставимую с Windows NT поддержку аппаратного обеспечения (намного лучшую сегодня), а также многие другие преимущества, которые можно ожидать от программного обеспечения с открытым кодом.
FreeBSD прекратила поддержку архитектуры Alpha с выпуском 7.0 версии в феврале 2008. NetBSD, OpenBSD и Linux продолжают поддерживать эту архитектуру.
Этот список больших ошибок DEC можно продолжить, но остальные не так важны или не относятся непосредственно к архитектуре Alpha. В любом случае, с точки зрения автора,
Совет директоров, мотивированный многочисленными неудачами DEC в конце 1980-х и начале 1990-х, отстранил Ольсена в июле 1992 от руководства компанией и назначил на его место Роберта Палмера (Robert Palmer). В 1994 по его инициативе была проведена полная реорганизация бизнес-модели компании, которая из матричной (когда функционально разные отделы компании тесно взаимодействовали между собой при принятии решений) трансформировалась в традиционную вертикальную (когда полномочия и обязанности чётко определялись от самого верха компании и до самого её низа). Чистые убытки DEC за период с 1991 по 1994 составили свыше 4 млрд. USD, из них 2,16 млрд. только с июля 1993 по июль 1994, в основном, благодаря потраченным на реструктуризацию 1,2 млрд., которая предусматривала сокращение около 20 тыс. человек персонала. Таким образом, общее количество работающих на DEC было уменьшено до до 85 тыс. человек. Согласно программе Палмера, следовало избавиться от подразделений, не являющихся приоритетными для компании, и с этого момента началась глобальная распродажа.
В июле 1994 за 348 млн. USD было продано Quantum подразделение по разработке и производству дисковых и ленточных накопителей (Storage Business Unit). Стоит отметить, что это подразделение не пользовалось благосклонностью руководства из-за провала на рынке первых жёстких дисков компании с тонкоплёночным (thin film) покрытием пластин (DEC RA90 и RA92 — 1.22GB/3600rpm и 1.51GB/3400rpm соответственно, DSA/SDI интерфейс). Они должны были выйти на рынок к концу 1988, но из-за недоработок при проектировке это произошло только летом 1990. В результате DEC утратила лидерство в бизнесе жёстких дисков, которое перешло к Imprimis, дочерней компании Control Data Corp. (CDC). Она анонсировала свой тонкоплёночный жёсткий диск Wren VII (1.05GB/3600rpm 5.25" full height, SCSI интерфейс) в ноябре 1988 и вывела его на рынок в следующем году как Seagate ST41200N/ST41200ND (Imprimis была продана Seagate в июне 1989 примерно за 450 млн. USD в деньгах и ценных бумагах). Следовательно, Seagate оказалась первой компании в отрасли, которая пересекла 1ГБ барьер для жёстких дисков, за ней последовала Maxtor, а DEC подсчитывала убытки. Что касается Quantum, то у неё был довольно успешный бизнес жёстких дисков в то время, но её продукты никогда не попадали в сегмент high end, хотя были очень популярны среди низкобюджетных покупателей (модельный ряд жёстких дисков Quantum Bigfoot, который производился с 1996 в в 5.25" конструктиве и с 3600rpm скоростью вращения, был тому отличным примером). Quantum хотела расширить свой бизнес на прибыльный рынок SCSI, а у DEC было в этом немало опыта. Продукты DEC из семейства StorageWorks основывались на SCSI жёстких дисках RZ серий. Некоторые из них заказывались у Micropolis, Conner, Quantum и других, но некоторые DEC производила сама благодаря команде разработчиков в Шрусбери (Массачусеттс, США). Там же c 1984 проектировались и производились успешные стримеры семейства DLT (digital linear tape drives), которые были ещё одной целью для Quantum. Если не вдаваться в подробности, то благодаря бывшим технологиям и персоналу DEC у Quantum получилось выпустить на рынок семейство Atlas жёстких дисков с интерфейсом SCSI и 7200rpm, которое было позже расширено 10K и 15K rpm моделями. Это семейство продолжало расширяться после 50%/50% слияния бизнеса жёстких дисков Quantum со всей компанией Maxtor в октябре 2000, но было свёрнуто вскоре после 16%/84% поглощения Maxtor лидером отрасли Seagate в декабре 2005, поскольку у последней имелось собственное семейство высокоскоростных SCSI дисков, Cheetah.
В августе 1994 было продано Oracle подразделение баз данных (Database Software Unit) за 108 млн. USD в деньгах. Сделка включала продажу DEC Rdb реляционной системы управления базами данных (relational data base management system, RDBMS), а также программного обеспечения CDD/Repository и DBA WorkCenter. В то же время программное обеспечение с функциями управления базами данных DEC RMS (Record Management Services) было исключено из сделки, так как оно являлось неотъемлемым интегрированным компонентом OpenVMS. DEC поддерживала Rdb 6.0 на OSF/1 AXP, OpenVMS (VAX и Alpha), Windows NT (i386 и Alpha). С выпуском Rdb 7.0, Oracle прекратила поддержку Rdb на всех ОС, кроме OpenVMS, и позже вытеснила версию для VAX версией для Itanium.
В 1992 DEC вступила в альянс с Olivetti, итальянским компьютерным вендором, с целью взаимного продвижения продуктов. DEC также приобрела 7,8% долю в Olivetti за 287 mln. USD. 24 августа 1994 DEC продала эти акции за 150 mln. USD, то есть, почти за половину цены, уплаченной 2 года назад. Явно не лучшее капиталовложение. Тем не менее, обе компании продолжали сотрудничество вплоть до 1997, когда Olivetti закрыла свой компьютерный бизнес.
В ноябре 1997 была подписана сделка о продаже подразделения сетевых решений (Network Product Business Unit) Cabletron примерно за 430 млн. USD в деньгах, ценных бумагах и товарном кредите. Впридачу к материальным активам, Cabletron получила около 250 патентов в сетевой сфере и 900 новых работников, не включая тех 200, которым повезло сохранить свои должности в DEC. Размер этого самого товарного кредита не разглашался, поэтому было проблематично определить реальную цену продажи подразделения. Кстати, в следующем месяце Cabletron уволила около 600 человек собственного персонала и закрыл 2 фабрики, а также потеряла примерно половину рыночной капитализации в течение только одного месяца с момента подписания сделки с DEC. Фактически, Cabletron не была заинтересована ни в приобретаемых сетевых продуктах, ни технологиях, ни даже персонале. Ей была нужна инфраструктура для продаж сетевого оборудования. Однако же, не сложилось. Компанию постигали неудачи одна за другой на протяжении следующих лет. В конце концов остатки бывшего сетевого подразделения DEC вместе со 130 работниками были проданы Gores Technology Group в мае 2000.
Kонец DEC был довольно громким. В мае 1997 она подала в суд на Intel, обвиняя последнюю в нарушении 10 своих патентов на архитектуру Alpha при проектировании процессоров Pentium, Pentium Pro и Pentium II. В сентябре 1997 Intel ответила встречным иском, обвиняя DEC в нарушении 14 патентов при разработке процессоров Alpha. В конце концов, 27 октября 1997 был подписан мир и обе компании отозвали свои претензии. DEC предоставила Intel производственные права на весь спектр своей продукции, кроме разработок в области архитектуры Alpha, и согласилась поддерживать будущую архитектуру IA-64. Взамен Intel выкупила у неё за 625 млн. USD фабрику в Хадсоне вместе с проектными центрами в Иерусалиме (Израиль) и Остине (Техас, США), а также обязалась в будущем производить для DEC процессоры Alpha. Кроме того, был подписан договор о взаимном кросс-лицензировании патентов сроком на 10 лет. Сделка была завершена 18 мая 1998, когда Compaq уже была в процессе интеграции в свои структуры основных подразделений DEC, в которых было занято 38 тыс. сотрудников. Значительная часть их всё же была сокращена в самом ближайшем будущем. Между прочим, у самой Compaq до поглощения числилось 32 тыс. работников.
HugoBo-SS, 17.11.2015 - 22:09
Alpha: история в фактах и комментариях 2
Стоит упомянуть, что незадолго до конца DEC, а также вскоре после этого, многие ведущие инженеры, которым DEC была обязана своим былым могуществом, ушли к другим работодателям.
Деррик Мейер (Derrick Meyer) и Джеймс Келлер (James Keller) отправились в AMD создавать K7 и К8 соответственно.
Дэниел Лейбхольц (Daniel Leibholz) был принят на работу в Sun для разработки UltraSPARC V.
Также уволился Ричард Сайтс, один из ведущих разработчиков архитектуры Alpha на протяжении всего времени её существования.
В этом плане Intel повезло ещё меньше, так как доставшаяся ей от DEC вместе с фабрикой и проектными центрами архитектура StrongARM осталась почти без разработчиков, так как никто из ведущих инженеров, проектировавших StrongARM-110 (Дэниел Добберпуль, Ричард Витек, Грегори Хёппнер (Gregory Hoeppner) и Лайэм Мэдден (Liam Madden)), не пожелал перейти на работу в Чипзиллу. Более того, команда разработчиков следующего процессора архитектуры, работавшая под руководством Витека в Остине, уволилась в полном составе, так что Intel пришлось начинать разработку в буквальном смысле с ноля усилиями своих инженеров, до этого разрабатывавших i960.
Alpha 21264 (EV6, EV67, EV68A, EV68C)
» Нажмите, для открытия спойлера | Press to open the spoiler «
Хотя процессор 21264 (EV6) был разработан в DEC, а первая информация о нём была опубликована в октябре 1996 на Microprocessor Forum, окончательное воплощение в кремнии датируется февралём 1998, когда DEC уже была в процессе ликвидации. Собственно процессор представлял собой настолько существенный шаг вперед по сравнению с EV5, что его никак нельзя было считать эволюционным продолжением последнего. Одним из основных нововведений было внеочередное исполнение (out-of-order execution) инструкций, повлёкшее за собой фундаментальную реорганизацию ядра и снизившее зависимость основных фунциональных устройств от пропускной способности кэшей и оперативной памяти. EV6 мог переупорядочить на лету до 80 инструкций, что было значительно больше возможностей других конкурентных разработок. К слову, архитектура Intel P6 предусматривала внеочередную обработку до 40 [микрокоманд], HP PA-8x00 — до 56, MIPS R12000 — до 48, IBM POWER3 — до 32, PowerPC G4 — до 5, a Sun UltraSPARC II переупорядочивание команд не поддерживал. Внеочередное исполнение дополнялось техникой переименования регистров (register renaming), поэтому EV6 располагал 80 целочисленными и 72 вещественными регистрами, хотя количество архитектурных (логических) регистров осталось неизменным — 32 целочисленных и 32 вещественных.
Количество целочисленных конвейеров было увеличено до 4, то есть в 2 раза по сравнению с EV5. Они были организованы в виде 2 блоков (clusters). Если точнее, каждый блок состоял из 2 конвейера и файла регистров на 80 записей. Оба файла регистров были идентичными (синхронизирванными). Однако, конвейеры были функционально разными: 2-й конвейер 1-го блока мог выполнять команды сдвига (1 такт на обработку) и умножения (7 тактов на обработку), а 2-й конвейер 2-го блока — команды сдвига (1 такт) и MVI (3 такта). 1-й конвейер каждого блока выполнял помогал A-box, производя расчёт виртуальных адресов для операций загрузки/сохранения. Кроме этого, все 4 конвейера поддерживали выполнение основных арифметических и логических операций (1 такт). Собственно A-box работал с I-TLB и D-TLB (каждый на 128 записей), очередями загрузки и сохранения (каждая по 32 команды), а также 8 64-байтными буферами (miss address file) для операций с B-cache и оперативной памятью. Вещественные конвейеры также были функционально неоднородны: 1-й поддерживал операции сложения (4 такта), деления (12 тактов для операндов одинарной точности и 15 тактов для двойной) и вычисления квадратного корня (15 и 30 тактов), а 2-й — только умножения (4 такта). I-box, как и прежде в EV5, мог декодировать до 4 команд за такт и направлять их в 2 очереди: на целочисленные конвейеры (E-queue, 20 команд) и на вещественные конвейеры (F-queue, 15 команд).
Структура C-box подверглась значительным изменениям, да и работать ему теперь предстояло только с 2 уровнями кэш-памяти. Интегрированная L1 кэш-память состояла из 64Кб I-cache и 64Кб D-cache, оба с 2-канальной ассоциативностью и 64-байтными строками. D-cache, как и B-cache, работали в режиме обратной записи, а без S-cache пришлось обойтись. Всё же B-cache был включающим по отношению к D-cache. Из-за большого размера D-cache задержки чтения/записи возросли с 2 тактов до 3 (в/из целочисленного регистра) и 4 тактов (в/из вещественного регистра). D-cache так и остался двухпортовым, но, в отличие от EV5, он уже не состоял из 2 идентичных частей, синхронизированных по записи, а просто работал на удвоенной частоте ядра. Доступ к внешнему B-cache размером от 1Мб до 16Мб с прямым отображением и обратной записью осуществлялся через независимую 128-битную шину данных с 16-битным каналом для ECC, а также при помощи 20-битной однонаправленной шины адреса. B-cache набирался на микросхемах LW SSRAM (late-write, с отложенной записью), а позднее и DDR SSRAM (double data rate, с удвоенной скоростью передачи данных). Частота B-cache программировалась в диапазоне от 2/3 до 1/8 частоты ядра EV6, и, в отличие от предыдущих поколений процессоров Alpha, собственно B-cache не был опциональным. Системная шина данных была только 64-битной с дополнительным 8-битным каналом для ECC, но была в состоянии передавать информацию на обоих краях тактового сигнала, то есть использовала принцип DDR. Системная шина адреса была 44-битной, физически представленной в виде двух 15-битных однонаправленных каналов, а системная шина управления — 15-битной. Был изменён базовый принцип работы системной шины, которая из разделяемой преобразовалась в выделенную, то есть каждый процессор располагал собственным путём к системной логике.
Блок предсказания ветвлений был полностью переработан. Oн был спроектирован по 2-уровневой схеме: с локальной историей переходов (local history table, 1024 записи с 10-битными счётчиками) и локальным предсказателем (local predictor, 1024 записи по 3 бита), а также с глобальным предсказателем (global predictor, 4096 записей по 3 бита) и 12-битным "путём истории" (history path). Оба алгоритма работали независимо, и если локальный отслеживал каждый отдельный условный переход, то глобальный — последовательности переходов. Общий предсказатель ветвлений анализировал результаты обоих алгоритмов и делал выводы в виде отдельной таблицы выборочного предсказателя (choice predictor, 4096 записей по 2 бита), на основе которой выводились предпочтения при расхождении локальных и глобальных прогнозов. Такой кооперативный метод позволял добиться лучших результатов, чем применение любого из алгоритмов в отдельности.
Инженеры, разрабатывавшие EV6, учитывая большое количество функциональных устройств и прочие сложности, полностью переработали схему расположения генераторов тактовой частоты. Более равномерное распространение тактового сигнала позволило ядру работать на частотах, равных частотам куда более простого ядра EV56, при использовании почти того же техпроцесса. В целом, потребляемая частотными генераторами мощность составляла для EV6 около 32% от общего потребления ядра. Для сравнения, у EV56 этот показатель составлял около 25%, у EV5 — около 37%, а у EV4 — около 40%.
EV6 производился по тому же техпроцессу, что и EV56, но с дополнительными 2 слоями металлизации. Состоял из 15,2 млн. транзисторов (из них около 9 млн. на I-cache, D-cache и предсказатели переходов), располагал площадью ядра в 314мм² и был рассчитан на рабочее напряжение от 2,1В до 2,3В. Тактовые частоты EV6 составляли от 466МГц до 600МГц (TDP прибл. от 80Вт до 110Вт). Форм-фактор: PGA-587 (Pin Grid Array).
В конце 1999 на рынок вышел 21264А (EV67), выполненный по 0,25µ CMOS техпроцессу от Samsung, обладавший площадью ядра в 210мм² и требовавший пониженное рабочее напряжение в 2,0В. По сравнению с EV6 никаких значительных архитектурных отличий не наблюдалось. Тактовые частоты 21264A (EV67) составляли от 600МГц до 833МГц (TDP прибл. от 70Вт до 100Вт), что позволило архитектуре Alpha вернуть лидерство на целочисленных операциях, незадолго до этого утраченное в пользу Intel Pentium III (Coppermine) и AMD Athlon (K7).
В начале 2000 появились первые образцы процессоров 21264B (EV68C), на этот раз от IBM, выполненные сорласно норм 0,18µ CMOS техпроцесса с использованием медных проводников. Несмотря на прежнее отсутствие архитектурных изменений, многообещающая технология позволила поднять тактовые частоты вплоть до 1250МГц. В 2001 Samsung смог наладить производство 21264B (EV68А) согласно норм своего 0,18µ CMOS техпроцесса, но с алюминиевыми проводниками. По сравнению с EV67, площадь ядра была сокращена более чем на треть (до 125мм²), также было уменьшено напряжение питания (до 1,7В). Тактовые частоты 21264B (EV68A) находились в диапазоне от 750МГц до 940МГц (TDP прибл. от 60Вт до 75Вт). А ведь ещё в сентябре 1998 было анонсировано, что EV68 от Samsung будет использовать прогрессивный 0,18µ FD-SOI (Fully Depleted Silicon-On-Insulator) техпроцесс с медными проводниками, который позволил бы EV68 достичь 1,5ГГц и даже более. Увы, этого не произошло.
В разных источниках проскакивали упоминания о 21264C и 21264D под кодовыми именами EV68CB и EV68DC соответственно, выпускавшимися IBM согласно норм того же техпроцесса и с теми же частотными характеристиками, что и EV68C, поэтому их можно расматривать как частные варианты последнего. Единственным существенным отличием было использование нового форм-фактора, безногого LGA-675 (Land Grid Array) вместо PGA-587. Скорее всего, эти процессоры устанавливались только в сервера Compaq.
Кроме BWX и MVI, унаследованных от процессоров предыдущего поколения архитектуры Alpha, в EV6 был добавлена поддержка нового набора из 9 команд под названием FIX или FX (Floating-point eXtension), нацеленного на вычисление квадратного корня (SQRTF, SQRTG, SQRTS, SQRTT), перемещение данных из целочисленных в вещественные регистры (ITOFF, ITOFS, ITOFT) и из вещественных в целочисленные (FTOIS, FTOIT). Ещё один набор из 3 команд под названием CIX или CX появился в EV67 для облегчения подсчёта бит (CTLZ, CTTZ, CTPOP). Наконец, EV6 и его производные поддерживали две команды предвыборки (ECB, WH64) в дополнение к FETCH и FETCH_M, которые существовали с момента появления архитектуры.
Для процессоров серии 21264 было изначально спроектировано 2 набора системной логики: DEC Tsunami (21272; он же Typhoon) и AMD Irongate (AMD-751), хотя их могло бы быть значительно больше, поскольку и 21264, и Athlon использовали почти одинаковую системную шину, которая была лицензирована AMD ещё у DEC.
DEC Tsunami был набором системной логики повышенной масштабируемости. На его основе проектировали как 1-процессорные, так 2-процессорные и 4-процессорные системы с разрядностью шины памяти от 128 до 512 бит (83МГц SDRAM ECC registered), поддержкой как одной, так и двух шин PCI (33МГц 64-бит). Такой гибкости удалось достичь благодаря разделению системной логики на отдельные компоненты: контроллеры системной шины (C-chips, по одному на каждый процессор), контроллеры шины памяти (D-chips, по одному на каждые 64 бита ширины шины) и контроллеры шины PCI (P-chips, по одному на каждую требуемую шину). Поэтому не было ничего удивительного в том, что в некоторых системах (например, AlphaPC 264DP) набор системной логики состоял из 12 микросхем.
Хотя AMD Irongate (AMD-751) разрабатывался изначально как северный мост для материнских плат, предназначенных для процессоров AMD Athlon, дополненный южным мостом AMD Viper (AMD-756) или совместимым, его также использовали в некоторых материнских платах архитектуры Alpha (точнее, в UP1000 и UP1100). Так как он был одночиповым решением, то стоил намного дешевле DEC Tsunami и отличался существенно более низким энергопотреблением. Однако, его возможности не соответствовали потенциалу 21264 из-за отсутствия поддержки многопроцессорности и слишком узкой шины данных оперативной памяти (64-бит, до 768Мб SDRAM ECC unbuffered в 3 DIMM с 2 RAS строками каждый). Тем не менее, Irongate был первым набором системной логики для Alpha с поддержкой шины AGP.
В 2001 Samsung представил однопроцессорную материнскую плату UP1500, в основе которой лежал северный мост AMD Irongate-2 (AMD-761). Эта материнская плата обладала более высокой производительностью, чем UP1000 или UP1100, благодаря поддержке более быстрой оперативной памяти: до 4Гб DDR SDRAM ECC registered на частоте в 133МГц (4 модуля с 2 RAS строками каждый) либо до 2Гб DDR SDRAM ECC unbuffered на той же частоте (2 модуля с 2 RAS строками каждый). Однако, шина данных оперативной памяти осталась столь же узкой.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Эпоха Compaq
» Нажмите, для открытия спойлера | Press to open the spoiler «
Судя по всему, Compaq приобрела остатки DEC из-за значительных сборочных мощностей, широкой сети дистрибьюции (в 98 странах) и кросс-лицензионного соглашения с Intel (позволяющего, например, выпускать 8-процессорные сервера Profusion). Как показало дальнейшее развитие событий, подразделение по развитию архитектуры Alpha пришлось явно не к месту: Compaq издавна собирала обычные и переносные компьютеры, рабочие станции и сервера на основе процессоров Intel, а также проявляла определённый интерес к процессорам AMD. Поэтому в июне 1998 Compaq с Samsung заключили альянс по развитию архитектуры Alpha. Как известно, в феврале 1998 между DEC и Samsung было подписано соглашение, которое предоставляло последней доступ ко всем патентам DEC по архитектуре Alpha, давало разрешение на выпуск уже существующих процессоров Alpha и даже на проектировку и выпуск их производных. Совместно была учреждена дочерняя компания, API (Alpha Processor Inc.), которая должна была заниматься маркетинговыми вопросами архитектуры. По-видимому, кто-то сделал нужные выводы из истории DEC. Летом 1998 системы на базе EV6 вступили в стадию массового производства, уверенно выигрывая по соотношению цена/производительность у имеющихся конкурентных продуктов. Серьёзные проблемы с выпуском будущего Itanium от Intel давали основание утверждать, что такое положение дел сохранится и в ближайшем будущем. Кроме Samsung, EV6 былa вынужденa производить сама Intel на своей Fab-6 в Хадсоне, так как это было одним из условий последнего договора с покойной DEC.
Год 1999 оказался неудачным для Compaq, в связи с падением объёмов продаж на рынке персональных компьютеров. Основной причиной называли недооценку возможностей, предоставляемых Интернетом для продаж компьютерной техники и которыми активно воспользовалась Dell, перестроившая таким образом свою бизнес-модель, предлагая технику по самым низким ценам среди крупнейших производителей. После финансовой катастрофы в 1-м квартале 1999 ушёл в отставку главный исполнительный менеджер Compaq, Экхард Пфайфер (Eckhard Pfeiffer). В целях экономии, Compaq начала сворачивать деятельность в некоторых отраслях, что отразилось и на Alpha-системах: в мае 1999 было объявлено о закрытии сборочного цеха AlphaServer'ов в Сэлеме (Нью-Хэмпшир, США).
23 августа 1999 произошло таки знаменательное событие: Compaq отказалась от дальнейшего участия в разработке Windows NT и прекратила поставлять эту ОС со своими Alpha-системами, а также уволила почти всех сотрудников (примерно 120 программистов) из бывшей Западной исследовательской лаборатории DEC (DECwest), работавших над этим проектом. Согласно статистике Compaq, среди всех предустановленных ОС на Alpha-системах Tru64 UNIX имела долю в 65%, OpenVMS — в 35%, a на Windows NT приходилось около 5%, поэтому дальнейшие работы над этой ОС не окупали себя. Неделю спустя Microsoft заявила, что отменяет разработку Windows 2000 для Alpha, хотя RC1 (Release Candidate 1) уже был готов к тому моменту. Учитывая, что ещё в 1997 Microsoft вместе с Motorola и SGI свернула поддержку архитектур PowerPC и MIPS соответственно, будущее "универсальной ОС" оказалось привязанным к одной-единственной архитектуре. Естественно, если не считать IA-64, которая вскоре провалилась на рынке рабочих станций, а на рынок обычных и переносных компьютеров так и не вышла.
Чтобы обеспечить лидерство архитектуры Alpha в обозримом будущем, в декабре 1999 Compaq и Samsung подписали меморандум, согласно которому обе компании обязались инвестировать 500 млн. USD в её развитие. Samsung должна была вложить 200 млн. USD в развитие и отладку новых техпроцессов, а Compaq решилась потратить 300 млн. USD на проектирование новых серверных решений и на дальнейшее развитие Tru64 UNIX. Кроме того, в том же месяце Compaq и IBM заключили соглашение, согласно которому последняя обязалась производить процессоры Alpha с использованием своей CMOS технологии на медных проводниках как только та будет отлажена. Тем не менее, Samsung всё же должна была остаться основным поставщиком процессоров Alpha. Если подвести итоги года для Compaq, то они довольно неплохо были проиллюстрированы курсом её акций: с 51 USD за шт. в феврале и до 28 USD за шт. в декабре. Правда, многие аналитики утверждали, что могло быть и хуже.
Y2K прошёл для Compaq без потрясений. Samsung так и не успела наладить свой 0,18µ техпроцесс, в отличие от IBM, которая начала ограниченные поставки EV68C для Compaq, а рынок был вынужден довольствоваться относительно медленными 21264A (EV67). Разработка 21364 (ЕV7, также известного как Marvel) затянулась, хотя в анонсах уже значился 21464 (EV8, также известный как Araña). Крах dot-com'ов отразился и на курсе акций Compaq, упавшем к концу года до 15 USD за шт., то есть на 44% по сравнению с началом года. Как ни странно, этот показатель можно считать хорошим, поскольку другие компании, более зависимые от электронной коммерции, потеряли намного больше: Gateway — 75%, Apple — 71%, Dell — 65%. Собственно dot-com'ы стали либо банкротами, либо были недалеки от этого: Yahoo.com потеряла 95% своей рыночной стоимости, а Priceline.com — 97%.
В начале 2001 Samsung смогла наладить выпуск своих EV68А, но удачный момент был уже упущен. Compaq планировала начать поставки систем с EV68C (AlphaServer'ов GS-класса), а также развернуть модернизацию имеющихся. EV7 был всё ещё где-то там, когда случилось то, чего мало кто ожидал: 25 июня 2001 (в "чёрный понедельник") Compaq объявила о постепенном переводе своих серверных решений с архитектуры Alpha на IA-64 к 2004. Фактически, это означало капитуляцию перед Intel и Hewlett-Packard. Работы над EV8 были отменены немедленно, хотя некоторые принципы его внутреннего устройства были опубликованы ещё на Microprocessor Forum в октябре 1999, а EV7 планировалось выпустить не ранее начала 2002, после чего Alpha Microprocessor Division подлежал расформированию, а основную часть его сотрудников должна была принять на работу Intel. Samsung и IBM вскоре прекратили производство процессоров Alpha. Далее события развивались ещё более интересно: 3 сентября 2001 Hewlett Packard заявила о своих намерениях приобрести Compaq, находящуюся в весьма сомнительном финансовом положении, так как в декабре того года курс её акций упал 10 USD за шт. Сделка была утверждена собраниями акционеров обеих компаний, а также правительствами США и Канады, и завершилась в мае 2002.
21 октября 2001 API, переименованная к тому времени в API NetWorks, передала все полномочия по обслуживанию проданного к тому времени аппаратного обеспечения Alpha компании Microway, крупнейшему [после Compaq] сборщику рабочих станций и серверов на основе архитектуры Alpha, старому партнёру DEC. Сама же API ушла с этого рынка, сконцентрировав внимание на сетевых технологиях, системах хранения данных и развитии шины HyperTransport.
В заключение можно сказать, что хотя Compaq и избежала многих ошибок, сделанных в своё время DEC, она таки довела архитектуру до жалкого состояния. Производительные Alpha-системы на 21264A и 21264B так и не попали в ценовую категорию до 2 тыс. USD, а недорогой 21264PC так и не появился. Возможность массового выпуска недорогих материнских плат на основе AMD Irongate была проигнорирована, а стоимость DEC Tsunami, продаваемого Compaq по цене свыше 1000 USD за набор в оптовых партиях, не оставила Alpha-системам шанса на выход в средний ценовой диапазон. Другие производители наборов системной логики для AMD Athlon предпочли не адаптировать их для работы с 21264, хотя у VIA такое намерение изначально имелось. Северный мост Irongate-4 (AMD-762), появившийся почти полгода спустя Irongate-2 (AMD-761), то есть в декабре 2001 по сравнению с августом, так и не засветился в каком-либо дизайне материнских плат для Alpha. А ведь он мог работать в 2-процессорных конфигурациях и поддерживал тот же интерфейс к оперативной памяти, что и Irongate-2 (64-битный 133МГц DDR SDRAM), а посему системы на его основе и пары недорогих 21264B могли бы обладать отличными показателями соотношения цены и производительности.
Однако, Compaq таки потеряла рынок рабочих станций для архитектуры Alpha. Фактически, она выпустила только две рабочие станции для этой архитектуры: XP900 (с 466МГц EV6 и 2Мб B-cache; кодовое имя Webbrick) и XP1000 (с 500МГц EV6 и 4Мб B-cache, позднее с 666МГц EV67; кодовое имя Monet). Обе основывались на DEC Tsunami, хотя и с относительно узким 128-битным каналом данных к оперативной памяти. Эти машины проиграли в конкурентной борьбе с рабочими станциями архитектуры x86, которые были менее производительны, но также и гораздо менее дороги. В конечном итоге, их неудача обернулась концом для Windows NT на Alpha: сервера от Compaq использовали, в основном, Tru64 UNIX или OpenVMS, а другие вендоры предпочитали Linux. Этот провал мог и должен быть засчитан целиком на счёт Compaq, так как DEC отчаянно боролась за рынок рабочих станций, где даже добилась определённых успехов. Например, если вспомнить о хорошо продаваемой DEC PWS (Personal WorkStation; кодовое имя Miata), в основе которой лежал DEC Pyxis и 21164A (EV56). Compaq же ничего не добилась, но умудрилась довольно быстро потерять всё.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Alpha 21364 (EV7, EV79, EV7z) и 21464 (EV8)
» Нажмите, для открытия спойлера | Press to open the spoiler «
Первые новости об архитектуре процессора 21364 (EV7) прозвучали в октябре 1998 на Microprocessor Forum. Уже тогда стало известно, что процессор будет базироваться на ядре EV6, но с интегрированным контроллером Direct Rambus DRAM (предположительно, 4-канальным) и кэшем L2 (1,5Мб с обратной записью и 6-канальной ассоциативностью). Также было оглашено, что никаких изменений в ядре EV6 не планировалось, хотя возможна и другая причина: разрабатывать было уже некому, так как штат проектирующих процессорную логику инженеров Compaq был весьма небольшим. Ожидалось, что работы над EV7 будут закончены к 2000.
После поглощения Compaq наследие в виде архитектуры Alpha было для Hewlett-Packard ненужным довеском, так как она развивала собственную архитектуру PA-RISC (Precision Architecture RISC) и состояла в альянсе с Intel по разработке её архитектуры IA-64 (позже переименованной в архитектуру Itanium). Поэтому интерес HP к архитектуре Alpha ограничился сбытом и поддержкой унаследованных от Compaq моделей серверов на основе EV6/EV67/EV68, а также запуском в производство EV7, окончательно представленного в январе 2002.
Как и ожидалось, в основе EV7 лежало совершенно неизменённое ядро EV68 и несколько дополнительно интегрированных блоков: два контроллера оперативной памяти (два Z-box'а, для Direct Rambus DRAM PC800), многофункциональный маршрутизатор (R-box, для поддержки многопроцессорного режима и сетевых функций) и полноскоростная L2 кэш-память (S-cache, 1,75Мб с обратной записью и 7-канальной ассоциативностью). Разрядность шины данных к S-cache была 128-битной, а собственно кэш-память работала со значительными задержками (12 тактов при чтении). Оба Z-box'а и R-box работали на 2/3 частоты ядра. Скорость работы каналов оперативной памяти зависела от Z-box'ов и составляла 1/2 их частоты (соответственно, 1/3 частоты ядра), но с использованием принципа DDR.
Каждый Z-box поддерживал 5 каналов памяти (4 основных и 1 вспомогательный) разрядностью по 18 бит каждый (16 бит для команд/данных/адресов, 2 бита для ECC). Вспомогательный канал был опцией и мог использоваться для организации отказоустойчивого массива в памяти (приблизительно, как RAID3). К примеру, при записи в память учетверенного слова (quad-word, 64 бита) оно разделялось на 4 слова, каждое из которых отправлялось по своему каналу, а по вспомогательному записывалась контрольная сумма. К тому же, каждый Z-box мог держать до 1024 страниц памяти открытыми. Суммарная теоретическая пропускная способность подсистемы оперативной памяти _одного_ EV7 при использовании DR DRAM PC800 на стандартной частоте составляла 12,8ГБ/с. Это было впечатляющей величиной по сравнению с 2,66ГБ/с, предоставляемых 256-битной 83МГц SDRAM, которой обычно обладали двухпроцессорные системы предыдущего поколения. Каждый EV7 в многопроцессорной системе располагал своей областью оперативной памяти, что подпадало под определение NUMA (Non-Uniform Memory Access). Традиционная модель называлась SMP (Symmetrical MultiProcessing), также известная как UMA (Uniform Memory Access), в которой все установленные процессоры имели доступ к единой (общей) области оперативной памяти. Каждый процессор (из максимум 128) в системе имел доступ к памяти как через свои контроллеры, так и через контроллеры других процессоров.
Функцию связи между процессорами, как и между отдельно взятым процессором и локальной периферией, выполнял R-box. Он поддерживал 4 независимых канала с теоретической пропускной способностью в 6 Гб/с каждый (по одному на каждый подключенный соседний процессор), а также 1 дополнительный канал для скоростного ввода/вывода. Дополнительная микросхема под названием IO7 служила мостом между процессором и периферией. Она поддерживала до трёх шин PCI или PCI-X и одну шину AGP. В отдельно взятой системе могло быть столько микросхем IO7, сколько процессоров EV7.
Процессоры 21364 могли поключаться друг к другу по произвольным алгоритмам, но на практике обычно использовались так называемые torus и shuffle, причём второй был потенциально эффективнее в некоторых случаях. Например, в 8-процессорной системе с алгоритмом подключения shuffle каждый процессор был непосредственно связан с 4 другими процессорами, а в случае с torus — только с 3. Нетрудно догадаться, что уже в 16-процессорной конфигурации этот аргумент отпадал.
21364 (EV7) производился по 7-слойному 0,18µ CMOS техпроцессу, состоял из 152 млн. транзисторов (из них 137 млн. было потрачено на I-cache, D-cache и S-cache) и, как следствие, занимал очень большую площадь кремниевой пластины — 397мм². Частота экспериментальных образцов составила 1250МГц (155Вт TDP), хотя в производимых HP системах использовались процессоры с более низкими частотами (1000МГц в AlphaServer DS25, ES47 и ES80, 1150MHz в AlphaServer GS1280 и SC1280). Фактически, EV7 был незначительной доработкой EV6 с целью улучшения масштабируемости и явно не инженерным чудом. Однако, потребовалось целых 4 года от начала работ до появления первых образцов, поэтому либо Compaq была плохим разработчиком, либо почти не беспокоилась о EV7.
В декабре 2002 HP опубликовала пресс-релиз, в котором шла речь о появлении первых серверов на основе EV7 уже в январе 2003. Благодаря 0,13µ SOI техпроцессу, вскоре должен был выйти 21364A (EV79), на котором развитие архитектуры должно было прекратиться. В марте 2003 на ISSCC был представлен прототип EV79 с площадью ядра в 251мм², рассчитанный на напряжение питания в 1,2В и работавший с частотой в 1450МГц (100Вт TDP). Но уже в октябре 2003 появились первые новости о трудностях, связанных с производством EV79 на фабрике IBM, а ещё через полгода процессор был окончательно отменён.
В августе 2004 было объявлено o выпуске последнего процессора архитектуры Alpha, 21364 (EV7z). Он производился по старому 0,18µ техпроцессу, поэтому максимальная тактовая частота смогла достичь лишь 1300МГц. Не исключено, что EV7z представляли собой просто отобранные экземпляры EV7 с хорошим частотным потенциалом. 21364 (EV7z), как и 21364 (EV7) ранее, был предназначен для установки исключительно в продукцию Hewlett-Packard. Также было заявлено, что сервера и рабочие станции архитектуры Alpha будут предлагаться до 2006, аэ поддерживаться до 2011 года, но не более.
Отменённый 21464 (EV8) должен был быть наследником EV7, по сравнению с которым количество основных исполнительных устройств планировалось удвоить до 8 целочисленных и 4 вещественных конвейеров), а также увеличить до 3Мб размер S-cache. Была заявлена поддержка новой технологии, SMT (Simultaneous MultiThreading), позволяющей одновременное выполнение (concurrent execution) до 4 программных потоков внутри одного физического ядра. Предположительно, эта технология была несколько родственной HyperThreading от Intel. Ядро должно было состоять из 250 млн. транзисторов и обладать площадью в 420мм² при условии использования 0,13µ SOI техпроцесса. Tактовая частота прототипов EV8 должна была достичь 1,8ГГц при напряжении питания ядра в 1,1В (150Вт TDP).
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Эпилог
На момент написания статьи (апрель 2005) Alpha-системы всё ещё продавались, в основном через Hewlett-Packard и Microway. Последняя даже предлагала относительно недорогие рабочие станции с 21164А и AlphaPC 164LX под Linux (за 2000 USD в стандартной комплектации). Большое количество списанных, но все ещё работоспособных рабочих станций и серверов, а также комплектующих к ним, было доступно через разного рода онлайновые барахолки типа eBay. Большинство этих систем изначально прeдназначалось для работы с Windows NT, и на некоторые из них не получится установить ни Digital UNIX, ни OpenVMS. Фактически, если некоторая машина не поддерживает SRM консоль, то на ней не будут работать NetBSD / OpenBSD / FreeBSD, хотя имеется способ установки и запуска Linux из-под ARC / AlphaBIOS. Если у вас имеется намерение приобрести Alpha-систему, хорошо выясните этот вопрос перед покупкой, чтоб не иметь впоследствии лишних проблем.
Согласно статистике, к июню 2001 только DEC и Compaq продали около 800 тыс. рабочих станций и серверов архитектуры Alpha. Точное количество систем, собранных и проданных другими компаниями, неизвестно, но эта цифра определённо превышает 500 тыс.
Многие утверждают, что архитектура Alpha умерла своей смертью.
Надеюсь, после прочтения этой статьи у вас не останется сомнений, что её похоронили, причём заживо. Потому что так было выгодно. Как и ожидалось, в октябре 2006 продукция архитектуры Alpha была убрана из прайс-листов Hewlett-Packard.
История знает немало случаев, когда товар с худшими характеристиками вытеснял сопоставимый товар с лучшими техническими показателями. Возможно, первый товар стоил существенно дешевле второго. Также возможно, что второй товар продвигался на рынке существенно пассивнее первого. Или лицензионные отчисления были несопоставимы. Всё возможно. Не исключено, что маркетологи некоторых товаров, осознавая их ущербность, продвигают их на рынке наиболее агрессивно, понимая, что иначе их очередная зарплата может оказаться последней.
Источник: alasir_com
ИМХО Последний абзац бы вынес в эпиграф
HugoBo-SS, 3.12.2015 - 18:06
22 года эволюции суперкомпьютеров
Июнь 1993 года: CM-5/1024» Нажмите, для открытия спойлера | Press to open the spoiler «
Впервые список 500 лучших суперкомпьютеров был опубликован в июне 1993 года. На тот момент самым мощным компьютером в мире был СМ-5, расположенный в Лос-Аламосской национальной лаборатории в Калифорнийском университете. Он находился в ведении Министерства энергетики США и был изготовлен компанией Thinking Machine.
CM-5/1024 состоял из 1024 процессоров SuperSPARC, работающих на тактовой частоте 32 МГц. Теоретическая вычислительная мощность системы составляла 131 гигафлопс, но в бенчмарке LINPACK, который использовался для получения результатов для рейтинга TOP500, фактическая производительность (59,7 гигафлопс) оказалась менее половины заявленной. По образу СМ5 был создан "мозг" комнаты управления в фильме "Парк Юрского периода" (пять черных башен с красными огнями), снятого Стивеном Спилбергом в 1993 году.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 1994 года: XP/S 140 Paragon» Нажмите, для открытия спойлера | Press to open the spoiler «
В июне 1994 года СМ-5 уступил место Intel XP/S 140 Paragon. Этот суперкомпьютер был приобретен для Сандийских национальных лабораторий в Нью-Мексико. Он включал 3680 процессоров Intel i860 XP - это был один из немногих чипов с набором инструкций RISC, изготовленный Intel. Для своего времени i860 был инновационным процессором. Он имел 32-битный вычислительный модуль и 64-битный модуль для выполнения операций с плавающей запятой (FPU). Каждый процессор имел доступ к 32 32-битным регистрам, которые также могли использоваться в качестве 16 64-битных регистров или 128 8-битных регистров. Набор инструкций, исполняемый FPU, также включал инструкции типа SIMD, которые заложили основу для будущего набора команд MMX, используемого в линейке процессоров Intel Pentium.
Каждый процессора i860 XP работал на тактовой частоте 40-50 МГц и обеспечивал 0,05 гигафлопс вычислительной мощности. Теоретическая мощность компьютера XP/S 140 составляла 184 гигафлопс, но практическая (в тесте Linpack) была чуть меньше - 143,4 гигафлопс.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Ноябрь 1994 года: Япония одерживает победу. Numerical Wind Tunnel» Нажмите, для открытия спойлера | Press to open the spoiler «
В ноябре 1994 года Япония обогнала США в рейтинге TOP500 с суперкомпьютером Numerical Wind Tunnel ("Цифровая аэродинамическая труба"), который компания Fujitsu изготовила для Национальной аэрокосмической лаборатории Японии.
В отличие от предыдущих самых мощных суперкомпьютеров в этой системе использовались всего 140 векторных, а не скалярных процессоров. Эти процессоры состояли из 121 отдельного ядра, собранных в матрицу 11 х 11, где каждый чип имел выделенную функцию. Каждый процессор содержал по четыре независимых канала и мог выполнять две инструкции умножения-сложения за тактовой цикл. Сам "процессор" потреблял 3000 Вт и требовал водяного охлаждения.
Эти процессоры работали при частоте 105 МГц и особенно хорошо подходили для имитации потока жидкости. Каждый процессор в теории обеспечивал 1,7 гигафлопс вычислительной мощности. Совокупная теоретическая вычислительная мощность составляла более 238 гигафлопс, и это был первый компьютер, преодолевший барьер в 200 гигафлопс, хотя его показатели в Linpack были немного ниже - сначала 124 гигафлопс, потом 170 гигафлопс и, наконец, 192 гигафлопс.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 1996 года: Hitachi обгоняет Fujitsu.SR2201/1024» Нажмите, для открытия спойлера | Press to open the spoiler «
В следующем году Япония усилила свои позиции в TOP500, представив SR2201/1024. Этот суперкомпьютер был создан компанией Hitachi для Токийского университета. Новая машина обошла компьютер Numerical Wind Tunnel от Fujitsu, и Япония в итоге заняла два первых места на TOP500, опустив США на третье место.
В отличие от суперкомпьютера Numerical Wind Tunnel эта система вернулась к скалярным процессорам и использовала чипы HARP-1E, основанные на архитектуре PA-RISC 1.1. В общей сложности в SR2201/1024 было установлено 1024 процессора с тактовой частотой 150 МГц, Каждый CPU обладал теоретической вычислительной мощностью 300 MFlops, а совокупная теоретическая вычислительная мощность SR2201/1024 достигала 300 гигафлопс. HARP-1E также представил механизм псевдо векторной обработки (Pseudo Vector Processing) для предварительной загрузки данных непосредственно в регистр процессора, минуя кэш. Благодаря этой функции компьютер SR2201/1024 мог похвастаться исключительной для своего времени производительностью. В тесте Linpack SR2201/1024 достиг 232,4 гигафлопс, то есть 72% от теоретической мощности.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 1997 года: пройден порог 1 терафлопс. Accelerated Strategic Computing Initiative (ASCI) Red» Нажмите, для открытия спойлера | Press to open the spoiler «
Чтобы вернуть себе технологическое лидерство США запустили в 1992 году инициативу Accelerated Strategic Computing Initiative (ASCI). Первым успешным проектом этой программы была разработка ASCI Red - суперкомпьютера, построенного Intel для Сандийских лабораторий, в которых также находился компьютер Intel XP/S 140. ASCI Red впечатлил весь мир, поскольку первым в истории пересек барьер в один терафлопс.
7264 процессоров Pentium Pro, работающих на частоте 200 МГц, имели теоретическое значение вычислительной мощности в 1,453 терафлопса и в Linpack показывали результат в 1,068 терафлопс. ASCI Red был одним из первых суперкомпьютеров, в котором использовались компоненты массового производства. Благодаря своей модульной и масштабируемой архитектуре суперкомпьютер ASCI Red продержался в списке TOP500 восемь лет.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 1998 года: ASCI Red 1.1» Нажмите, для открытия спойлера | Press to open the spoiler «
В июне 1998 года ASCI Red получил дополнительные 1888 процессоров Pentium Pro. Хотя в 1997 году он был первым в списке TOP500, тогда он был сформирован только на 75 процентов. В завершенном виде ASCI Red 1.1 в совокупности имел 9152 процессоров Pentium Pro с тактовой частотой 200 МГц и обладал теоретической вычислительной мощностью 1830 гигафлопс. В Linpack ему удалось достичь показателя в 1338 гигафлопс.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 1999 года: ASCI Red 2.0» Нажмите, для открытия спойлера | Press to open the spoiler «
В 1999 году Intel обновила суперкомпьютер ASCI Red, заменив старые процессоры Pentium Pro на новые Pentium II OverDrive с интерфейсом Socket 8. В дополнение к обновленной архитектуре и более высокой тактовой частоте (333 МГц у Pentium II Overdrive против 200 МГц у Pentium Pro) Intel увеличила число процессоров с 9152 до 9472 штук. Эти усовершенствования умножили теоретическую вычислительную мощность ASCI Red в 1,7 раз, в итоге максимум составил 3,1 терафлопс. Однако на практике система смогла обеспечить только 58 процентов от теоретической производительности, показав результат в 2,121 терафлопса.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2000 года: ASCI Red 2.1» Нажмите, для открытия спойлера | Press to open the spoiler «
После победы ASCI Red продержался в лидерах рейтинга TOP500 еще три года. В конечном итоге этот суперкомпьютер пережил еще одно увеличение количества процессорах ядер до 9632 штук. Теоретическая производительность остановилась на значении 3,207 терафлопс, а практическая (в Linpack) на отметке 2,379 терафлопс. В своей окончательной конфигурации ASCI Red занимал площадь в 230 квадратных метров и потреблял 850 киловатт энергии без учета системы охлаждения. ASCI Red находился в рейтинге TOP500 как один из самых быстрых в мире суперкомпьютеров до 2005 года и был выведен из эксплуатации в 2006 году.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2001: ASCI White» Нажмите, для открытия спойлера | Press to open the spoiler «
В конце концов, ASCI Red уступил трон суперкомпьютеру, который специально был разработан ему на замену, мы говорим об ASCI White. Новый суперкомпьютер был установлен в Ливерморской национальной лаборатории. Система начала работать вполсилы в ноябре 2000 года и была завершена в июне 2001 года.
В отличие от ASCI Red, созданного силами Intel, ASCI White дал шанс IBM показать свои возможности. ASCI White вмещал в себя 8192 процессоров IBM Power3 с тактовой частотой 375 МГц и следовал новой тенденции среди суперкомпьютеров - кластеризации. Кластерная архитектура представляет собой набор отдельных узлов соединенных вместе, которые работают как единая система. Сегодня кластеризация используется в 85 процентах суперкомпьютеров, значащихся в TOP500.
Фактически ASCI White включал 512 серверов RS/6000 SP, каждый их которых содержал по 16 процессоров. Каждый процессор обладал теоретической вычислительной мощностью 1,5 гигафлопс, ввиду чего совокупный показатель ASCI White достигал 12,3 терафлопс. Его реальная производительность была значительно ниже и достигала только 7,2 терафлопса в бенчмарке Linpack (7,3 терафлопса 2003).
ASCI White потреблял 3000 кВт мощности, и еще 3000 кВт требовала система охлаждения.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2002: Earth Simulator» Нажмите, для открытия спойлера | Press to open the spoiler «
В июне 2002 года список TOP500 пополнился суперкомпьютером Earth Simulator. Он был создан для исследовательского центра Earth Simulator Center в Иокогаме и оказался на голову выше ASCI Red и ASCI White. Система смогла реализовать 87,5% процента своей теоретической производительности на практике, показав 35,86 терафлопсов в тесте Linpack - это примерно в пять раз больше, чем показатель ASCI White. Earth Simulator был предназначен для моделирования климата и оснащался специально спроектированными суперскалярными процессорами NEC, каждый из которых имел 4-уровневый суперскалярный модуль и векторный модуль. Компоненты системы работали при тактовой частоте 500 МГц либо 1 ГГц. Каждый процессор имел теоретическую вычислительную мощность 8 гигафлопс и потреблял 140 Вт. Всего в Earth Simulator было организовано 640 узлов по 8 процессоров. Энергопотребление каждого узла суперкомпьютера составляло примерно 10 киловатт.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2003: ASCI Q и Alpha EV6» Нажмите, для открытия спойлера | Press to open the spoiler «
Высокие показатели производительности суперкомпьютера Earth Simulator обеспечил ему лидерство в TOP500 до июня 2004 года. Между тем, конкуренты продолжали бороться за второе место в списке. В июне 2003 года "серебро" принадлежало ASCI Q. Эта система была построена компанией HP в Национальной лаборатории в Лос-Аламосе.
По плану ASCI Q включал три сегмента, каждый из которых содержал по 1024 серверов HP AlphaServer SC45. Однако в списке TOP500 указана система с двумя сегментами. Каждый сервер имел два процессора Alpha 21264 с тактовой частотой 1,25 ГГц. Общая теоретическая мощность системы составила 20,5 терафлопс, практическая в Linpack -13,9 терафлопс.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« The Intruder: System X или Big Mac» Нажмите, для открытия спойлера | Press to open the spoiler «
Летом 2003 года Политехнический университет Вергинии решил собрать "недорогой" суперкомпьютер из общедоступных систем. System X (его еще называли Big Mac) состоял из 1100 работающих как одна систем Apple PowerMac G5, каждая из которых была оснащена двумя процессорами PowerPC 970 с тактовой частотой 2,3 ГГц. Строительство Big Mac заняло всего три месяца и стоило 5,2 миллиона долларов. Для сравнения Earth Simulator обошелся в 400 миллионов долларов. В ноябре 2003 года Big Mac получил третье место в рейтинге TOP500, продемонстрировав в Linpack 10,3 терафлопса вычислительной мощности. В 2004 году Big Mac был обновлен: системы PowerMac были заменены на Xserve, в результате вычислительная мощность увеличилась до 12,25 терафлопса.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Ноябрь 2004 года: Blue Gene/L» Нажмите, для открытия спойлера | Press to open the spoiler «
В сентябре 2004 года Earth Simulator был окончательно повержен суперкомпьютером IBM BlueGene/L. Еще на стадии строительства он достиг 36 терафлопс. Когда в ноябре 2004 года создание компьютера было завершено, его вычислительная мощность составила 70,7 терафлопс, что в два раза больше чем у Earth Simulator. В июне 2005 года BlueGene/L был расширен и показал уже 136,8 терафлопс в тесте Linpack, то есть он обошел Earth Simulator более чем в четыре раза. BlueGene/L был тогда первым суперкомпьютером, перешедшим барьер 100 терафлопс.
Чтобы добиться такого высокого показателя IBM использовала 65536 процессоров PowerPC 440 с тактовой частотой 700 МГц. Используемые процессоры не отличались высокой производительностью, но они были компактными и потребляли относительно немного энергии, что позволило IBM установить по два чипа на одной маленькой карте (на фотографии) и подключить ее к материнской плате внутри стойки. BlueGene/L показал превосходную производительность и достиг 75 процентов от своей теоретической вычислительной мощности в Linpack.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2006 года: BlueGene/L 2.0» Нажмите, для открытия спойлера | Press to open the spoiler «
В конце 2005 года Blue Gene/L в Ливерморской национальной лаборатории удвоил число процессоров до 131072. В результате BlueGene/L 2.0 легко занял первое место в TOP500. В тесте Linpack он продемонстрировал 280,6 терафлопс. Благодаря маленьким и энергоэффективным чипам IBM конечная конфигурация BlueGene/L потребляла только 1,2 МВт мощности.
На тот момент BlueGene/L был единственным суперкомпьютером превысившим 100 терафлопс. Машина, занимавшая второе место, выдавала 91,3 терафлопс. Обратите внимание, что также в июне 2006 года французский суперкомпьютер Tera 10 занял 6-е место с показателем 42,9 терафлопс.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2007 года: Jaguar» Нажмите, для открытия спойлера | Press to open the spoiler «
Blue Gene/L оставался самым быстрым суперкомпьютером еще два года. Хотя ни одна другая система не могла сравниться с ним по производительности, некоторые суперкомпьютеры смогли приблизиться и преодолеть отметку в 100 терафлопс. В июне 2007 года планку в 100 терафлопс перескочили Jaguar (№ 2) и Re Storm (№ 3). Jaguar, который, кстати, постоянно модернизируется с 2005 года, состоял из серверов Cray XT3 и XT4, и знаменовал вступление AMD в высшую лигу, так как в этих системах использовались двухъядерные процессоры Opteron 2,6 ГГц. В общей сложности в Jaguar работали 23016 ядер, благодаря которым он достиг 101,7 терафлопс в тесте Linpack.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2008 года: Roadrunner» Нажмите, для открытия спойлера | Press to open the spoiler «
В июне 2008 года IBM подвинула BlueGene/L системой IBM Roadrunner. Новый суперкомпьютер впервые в истории перешел порог в один петафлопс. Кроме того технологический прорыв заключался в том, что это был первый гибридный суперкомпьютер, использующий одновременно две существенно различающиеся процессорные архитектуры.
В общей сложности The Roadrunner содержал 122400 ядер в процессорах IBM и AMD. 6562 двухъядерных процессора AMD64 Opteron работали на частоте 1,8 ГГц и были способны исполнять традиционные программы на архитектуре x86. Каждое ядро Opteron работало в паре с одним ядром PowerXCell 8i 3200 с тактовой частотой 3,2 ГГц, которое состояло из 1 PPE и 8 SPE. Эти процессоры IBM были похожи на те, что использовались в консолях Xbox 360 и Playstation 3. В этой конфигурации чипы PowerXCell 8i использовались в качестве сопроцессоров для CPU Opteron с целью повышения вычислительной мощности при необходимости. Совокупная теоретическая мощность Roadrunner составляла 1,38 петафлопс. Производительность в Linpack достигала 1,03 петафлопс и обеспечила ему первое место в TOP500.
Одним из преимуществ гибридной архитектуры являлась высокая энергоэффективность. Roadrunner потреблял всего 2,35 МВт мощности и, следовательно, обеспечивал до 437 мегафлопс на ватт. Система была установлена в Лос-Аламосской лаборатории, весила 227 тонн и занимала площадь 483 м2.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2009 года: Roadrunner» Нажмите, для открытия спойлера | Press to open the spoiler «
По аналогии с ASCI Red и BlueGene/L, Roadrunner удерживал лидерство в TOP500 в течение нескольких месяцев и модернизировался, что повышало его вычислительную мощность. В ноябре 2008 года общее количество вычислительных ядер увеличилось до 129600 штук, и производительность в Linpack подскочила до 1,1 петафлопс.
Относительно небольшого увеличения производительности оказалось достаточно, чтобы Roadrunner сохранил звание самого быстрого суперкомпьютера в мире. Второе место занимал Jaguar, использующий сервера Cray XT5 вместо старых XT3 и XT4. Его показатель в Linpack составлял 1,059 петафлопс. На то время Jaguar и Roadrunner были единственными суперкомпьютерами с вычислительной мощностью более одного петафлопса.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2010 года: Jaguar 3.0» Нажмите, для открытия спойлера | Press to open the spoiler «
В ноябре 2009 года Jaguar, наконец, удалось выбить Roadrunner с верхней позиции и стать самым быстрым суперкомпьютером в мире. Он состоял из двух блоков с серверами Cray. Старая часть вмещала 7832 сервера Cray XT4, в каждом был установлен четырехъядерный процессор Opteron 1354 Budapest с тактовой частотой 2,1 ГГц. Новый блок включал 18868 серверов Cray XT5, содержащих по два шестиядерных процессора Opteron 2435 Istanbul с тактовой частотой 2,6 ГГц.
Теоретическая мощность этого компьютера оценивалась в 2,33 петафлопс, а практическая в Linpack - 1,76 петафлопс. В отличие от Roadrunner, Jaguar не отличался низким энергопотреблением и расходовал около 7 МВт мощности (253 мегафлопс на ватт).
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« 2010 года: в гонку вступает Китай с вычислениями на GPU. Nebulae и Tianhe-1A» Нажмите, для открытия спойлера | Press to open the spoiler «
В 2010 году посоперничать за звание обладателя самого быстрого суперкомпьютера решил Китай. В июне 2010 года суперкомпьютер Nebulae имел самый высокий теоретический предел мощности в TOP500 - 2,98 петафлопс, но его реальная производительность в Linpack была ниже, чем у Jaguar. Затем, в ноябре 2010 года, появился Tianhe-1A, обогнавший Jaguar и Nebulae, как по теоретической, так и по практической вычислительной мощности.
Эта система в теории могла обеспечить до 4,7 петафлопс мощности, но в Linpack удалось получить только 2,57 петафлопс.
Tianhe-1A и Nebulae достигали высокой скорости за счет вычислений на графических процессорах. Подобно Roadrunner эти системы считаются гибридными суперкомпьютерами, поскольку сочетают процессоры x86 Intel Xeon X5600 (X5650 в Nebulae, X5670 в Tianhe-1A) с графическими процессорами NVIDIA Tesla (C2050 в Nebulae, M2050 в Tianhe-1A). Благодаря такому подходу вычисления GPGPU получили более широкое распространение.
Гибридная конфигурация китайских суперкомпьютеров продемонстрировала превосходную эффективность. Tianhe-1A потреблял только 4 МВт, обеспечивая 640 мегафлопс на ватт потребляемой мощности.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2011 года: Fujitsu K Computer» Нажмите, для открытия спойлера | Press to open the spoiler «
В июне 2011 года первенство по производительности суперкомпьютеров взяла Япония, представив Fujitsu K Computer, установленной в институте физико-химических исследований Riken.
Fujitsu K Computer является одной из немногих машин, продемонстрировавших реальную производительность относительно близкую к своему теоретическому пределу. Система состояла из 68544 восьмиядерных процессоров SPARC64 VIIIfx, имеющих в сумме 548352 физических ядра. В отличие от Tianhe-1A этот суперкомпьютер не имел в своем активе графических процессоров для вычислений GPGPU. K Computer обеспечивал 8,16 петафлопс вычислительной мощности.
Хотя K Supercomputer был значительно быстрее Tianhe-1A, он также потреблял значительно больше энергии - 9899 кВт по сравнению с 4000 кВт у Tianhe-1A. Поэтому эффективность была заметно хуже, чем у Tianhe-1A, и с добавлением дополнительных ядер (до 705024 штук) проблема не исчезла, энергопотребление возросло до 12650 кВт.
Июнь 2011 отметился еще одним знаменательным событием в рейтинге TOP500: первые десять суперкомпьютеров в мире обладали вычислительной мощностью свыше одного петафлопса.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2012 года: Sequoia BlueGene/Q» Нажмите, для открытия спойлера | Press to open the spoiler «
В июне 2012 года Sequoia BlueGene/Q стал первым суперкомпьютером, использующим более 1,5 миллиона процессорных ядер. Несмотря на огромный перевес в количестве ядер по сравнению с K Computer, его потребляемая мощность была почти вполовину меньше (7890 кВт).
Система состояла из 16-ядерных процессоров PowerPC с тактовой частотой 1,6 ГГц и являлась первым устройством, чья теоретическая вычислительная мощность превысила 20 петафлопс. На практике система достигла 16 петафлопс. Машина была установлена в национальной лаборатории, принадлежащей Департаменту энергетики США. Таким образом, Соединенные Штаты вернули себе лидирующую позицию в списке TOP500.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Ноябрь 2012 года: Cray XK7 (Titan)» Нажмите, для открытия спойлера | Press to open the spoiler «
В ноябре 2012 года IBM уступила первенство суперкомпьютеру Titan на базе Cray Xk7. Эта система содержала почти 300000 процессоров Opteron 6274 и более 260000 графических процессоров NVIDIA K20x. Это был второй случай, когда суперкомпьютер с процессорами AMD занял первое место в мире. Первым был Jaguar 3.0, лидировавший в июне 2010 года.
Теоретическая вычислительная мощность Titan не превысила показатель BlueGene/Q, но реальная производительность составила 17,6 петафлопс, что выше, чем у BlueGene/Q. Вся система потребляла примерно 8209 кВт мощности и была развернута в Национальной лаборатории Ок-Ридж, принадлежащей Департаменту энергетики США.
Другим значительным событием в ноябре 2012 года стало появление Xeon Phi.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2013 года: Tianhe-2 (MilkyWay-2)» Нажмите, для открытия спойлера | Press to open the spoiler «
В июне 2013 года Китай вернул себе лидерство, представив суперкомпьютер, который побил сразу несколько рекордов. Tianhe-2 превысил потолок теоретической вычислительной мощности 50 петафлопс, с показателем 54,9 петафлопс. Реальная производительность в Linpack была выше 33 петафлопс - это почти вдвое больше, чем у Cray Xk7, занявшего второе место.
Чтобы добиться такой высокой производительности в Tianhe-2 было установлено рекордное количество процессорных ядер - 3,12 миллиона. Кроме того он оказался самым прожорливым суперкомпьютером с потребляемой мощностью 17808 кВт.
Tianhe-2 установлен в Национальном университете оборонных технологий. Система оказалась неожиданностью для всех, поскольку была запущена на два года раньше планируемого срока. Каждый узел в Tianhe-2 состоит из двух 12-ядерных процессоров Xeon E5-2692 с тактовой частотой 2,2 ГГц, а также трех вычислительных карт Xeon Phi 31S1P, выполняющих большую часть работы. На сегодняшний день Tianhe-2 сохраняет звание самого быстрого суперкомьпютера в мире и занимает первое место в рейтинге TOP500.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Источник: THG
HugoBo-SS, 5.07.2016 - 23:24
Никогда не сдавайся: как Netscape вел неравную борьбу с Internet Explorer
Считается, что первый браузер появился 25 декабря 1990 года. Его создателем был Тим Бернерс-Ли, младший сотрудник Европейской организации по ядерным исследованиям. По его словам, разработка не заняла много времени (около двух месяцев), потому что он использовал платформу со специальным конструктором приложений. Тим создал так называемый Консорциум всемирной паутины (World Wide Web Consortium, сокращенно W3C), который разрабатывал стандарты, внедряемые в программное обеспечение.
К концу 1992 года, кроме самого первого браузера под названием WorldWideWeb, на рынке появилось множество других, большинство из которых было основано на библиотеке libwww – Line Mode Browser, ViolaWWW, Erwise, MidasWWW, MacWWW и другие. Следующими браузерами, выпущенными в 1993 году, были Cello, Arena, Lynx, tkWWW и NCSA Mosaic.
Mosaic, мультиплатформенный браузер, был разработан в организации National Center for Supercomputing Applications (NCSA). В октябре 1994 года Mosaic был на пути к превращению в эталонный для всего мира интерфейс. Несколько компаний лицензировали Mosaic, чтобы создать свои собственные коммерческие браузеры, такие как AirMosaic и Spyglass Mosaic.
Один из разработчиков Mosaic, Марк Андриссен, основал Mosaic Communications Corporation и создал новый веб-браузер под названием Mosaic Netscape. Чтобы разрешить проблемы лицензирования с NCSA, компания была переименована в Netscape Communications Corporation, а браузер — в Netscape Navigator. Браузер Netscape улучшил удобность и надёжность Mosaic и получил возможность отображать страницы постепенно, по мере их загрузки.
К 1995 году, благодаря своей бесплатности для некоммерческого использования, браузер доминировал в сети. К этому времени в свет вышли ещё несколько браузеров, в числе которых были IBM Web Explorer, WebRouser, UdiWWW и Microsoft Internet Explorer.
К середине 1995 года интернет получил широкое освещение в популярной культуре и СМИ. Netscape Navigator был самым широко используемым веб-браузером, и Microsoft приобрела лицензию на Mosaic, чтобы создать Internet Explorer 1.0, выпущенный как часть пакета Windows 95 Plus! в августе. Спустя три месяца для бесплатной загрузки был выложен браузер Internet Explorer 2.0. В отличие от Netscape Navigator, он был бесплатно доступен всем пользователям Windows, даже коммерческим компаниям.
Новые версии браузеров Internet Explorer и Netscape в течение нескольких следующих лет выпускались, пытаясь обогнать друг друга.
История IE» Нажмите, для открытия спойлера | Press to open the spoiler «
Проект по разработке Internet Explorer был запущен в 1994 году Томасом Риардоном. Согласно данным обзора Массачусетского технологического института в 2003 году, он использовал исходный код программы Mosaic разработчика Spyglass, Inc., который формально связан с браузером NCSA Mosaic.
Первая версия Internet Explorer, Microsoft Internet Explorer вышла 16 августа 1995 года и представляла собой переработанную версию браузера Spyglass Mosaic.
Ряд инноваций, предложенных Internet Explorer, стали впоследствии использоваться другими браузерами. Среди них элемент HTML iframe, который позволяет встраивать одни HTML-документы в другие (был добавлен в Internet Explorer 3), значок для избранного (favicon), который появился в Internet Explorer 4, и свойство для динамического обновления содержимого элементов innerHTML в Internet Explorer 4.
Для Internet Explorer 5 был разработан XMLHttpRequest, который позволил осуществлять HTTP-запросы к серверу без перезагрузки страницы. В этой версии также появился способ захвата и перетаскивания элементов (drag-and-drop), который почти без изменений был стандартизирован в HTML5 и теперь поддерживается почти всеми веб-браузерами.
Аналогично был адаптирован атрибут contentEditable, который был добавлен в версии Internet Explorer 5.5 и позволял редактировать часть страницы прямо в браузере, а также Clipboard Access с IE6, дающий браузеру доступ к буферу обмена в определенных ситуациях.
Internet Explorer 6 был первым браузером, интегрировавшим в себя платформу P3P, представляющую из себя средство обеспечения конфиденциальности данных пользователя.
Internet Explorer 7, в свою очередь, включал новые функции, призванные обеспечить безопасность пользователя и оградить его конфиденциальные данные от вирусов и сетевых атак.
Windows Internet Explorer 8 (IE8) вышел 19 марта 2009 года. Версию поддерживают второй и третий пакеты обновлений для Windows XP, второй пакет обновлений Windows Server 2003, Windows Vista, Windows 7 и Windows Server 2008 на 32 — и 64-битной архитектуре. Microsoft назвала в качестве главных приоритетов в разработке новой версии безопасность, простоту в использовании, и усовершенствование в поддержке RSS, CSS, и Ajax IE8.
Разработка Windows Internet Explorer 9 началась почти сразу же после выхода Internet Explorer 8 и версия была выпущена 14 марта 2011 года. Microsoft впервые объявила о начале разработки IE9 на конференции PDC в 2009 году, где обратила основное внимание на преимущества аппаратного ускорения в DirectX для повышения производительности веб-приложений.
Internet Explorer 9 предназначен только для Windows Vista SP2, Windows 7 и Microsoft Windows Server 2008. Браузер поддерживает некоторые характеристики CSS 3, встроенную поддержку цветовых ICC-профилей версии 2 или 4 через Windows Color System. 32-битная версия имеет более высокую производительность JavaScript благодаря модулю под названием «Chakra».
Internet Explorer 9 стал первым браузером, в котором использовалось аппаратное ускорение отображения графики благодаря использованию интерфейса программирования приложений Direct2D.
Internet Explorer 10 был выпущен 26 октября 2012 года вместе с Windows 8 и Windows Server 2012. Для Windows 7 версия стала доступна 26 февраля 2013 года. В Windows 8 браузер разделен на две версии: первая версия браузера, созданная с нуля для управления на сенсорных устройствах — в интерфейсе Modern UI без поддержки плагинов, вторая — традиционное приложение рабочего стола, в которой сохранена возможность расширения за счет плагинов. В этой версии браузера была усовершенствована поддержка JavaScript, CSS3 и HTML5 и аппаратного ускорения.
Internet Explorer 11 вышел в обновлении Windows 8.1, которое было представлено 17 октября 2013 года.
Этот релиз включил в себя улучшенное масштабирование для экранов с большим расширением, предварительную загрузку HTML5, перемещение элементов мышью, аппаратно ускоренное декодирование изображений формата JPEG, и полноэкранный режим HTML5.
Internet Explorer 11 является первой версией, поддерживающей WebGL555657 и протокол SPDY (начиная с версии 3).
Microsoft заявила, что Internet Explorer 11 при прохождении теста для измерения исполнительности JavaScript SunSpider является самым быстрым браузером для Windows по состоянию на 15 октября 2013 года.
После выхода Windows 10 разработчики заменили IE на новый браузер – Microsoft Edge.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« История Netscape Browser» Нажмите, для открытия спойлера | Press to open the spoiler «
Netscape Navigator — браузер, производившийся компанией Netscape Communications с 1994 по 2007 год. Первые бета-версии браузера, выпущенные в 1994 году, назывались Mosaic, затем Mosaic Netscape.
На момент создания браузер обладал самыми широкими возможностями, что обеспечило ему лидерство на рынке, несмотря на то, что он существовал тогда в виде бета-версии. После выпуска версии 1.0 доля на рынке продолжила стремительный рост.
В версию 2.0 была встроена полнофункциональная программа для работы с электронной почтой. Netscape превратился из просто браузера в семейство программ для работы в Интернете. В течение этого периода сам браузер и семейство программ носили одно название — Netscape Navigator.
Netscape 3.0 стал браузером номер один в мире. Данный релиз существовал также в версии Gold, содержащей WYSIWYG — HTML-редактор, который позже стал стандартной функцией Netscape Communicator. Netscape 3.0 предлагал множество новых функций, таких как плагины, цветные фоны таблиц, элемент applet.
С выпуском Netscape 4 была решена проблема одинакового названия собственно браузера и всего семейства программ: семейство программ было переименовано в Netscape Communicator.
После выпуска пяти предварительных релизов (в 1996—1997 годах) в июне 1997-го года Netscape Corp. выпустила финальную версию Netscape Communicator. Эта версия была основана на обновлённом коде Netscape Navigator 3, в нее были добавлены такие возможности, как поддержка некоторых элементов CSS1, элемента object, минимальная поддержка различных шрифтов.
Семейство программ Netscape Communicator включало в себя браузер Netscape Navigator, программу для работы с электронной почтой и новостными группами Netscape Mail and Newsgroups, адресную книгу Netscape Address Book и HTML-редактор Netscape Composer.
В октябре 1998 года была выпущена версия 4.5. В новой версии появилось много новых возможностей, особенно в почтовом клиенте. При этом ядро не обновилось и по своей функциональности в основном соответствовало версии 4.08.
Вместе с тем обострилась проблема задержек выхода основных версий программы. В Netscape Communicator 4.x существовало большое число ошибок обработки HTML и CSS, а объектная модель документа (DOM), предложенная Netscape, не нашла поддержки в W3C, который принял за основу вариант, предложенный Microsoft, которая в то время была основным спонсором консорциума.
В результате новым лидером на рынке стал Microsoft Internet Explorer 4 (а позднее — 5.0), благодаря лучшей поддержке HTML 4, CSS, DOM и ECMAScript. В ноябре 1998 года работа над Netscape 5.0 была прекращена и было принято решение начать разработку абсолютно новой программы с нуля.
Новый исходный код был назван Mozilla, на основе которого с небольшими изменениями был создан Netscape 6.
В январе 1998 года Netscape приняла решение разрабатывать браузер в рамках проекта с открытым исходным кодом. Была создана неформальная группа Mozilla Organization, которая в основном финансировалась Netscape.
Решение начать разработку браузера с нуля означало значительную задержку выпуска очередной версии. В это время Netscape была поглощена корпорацией AOL, которая, действуя под давлением проекта веб-стандартов (Web Standards Project), ускорила выход Netscape версии 6.0: она появилась в 2000 году.
Версия 7 (кодовое имя Mach V) стала называться просто Netscape, браузер в составе семейства программ сохранил своё название Netscape Navigator. Netscape 7.0, основанный на коде Mozilla 1.0.1, был выпущен в августе 2002 года и был прямым продолжением Netscape 6 с теми же компонентами.
Netscape Browser 8 основан на коде Mozilla Firefox 1.0. В отличие от своего огненного брата, Netscape работает только в семействе операционных систем Windows (98SE, ME, 2000 и XP). Восьмерка больше не является интегрированным пакетом, оставив в своем арсенале лишь браузер. Базовая функциональность и большинство элементов пользовательского интерфейса наследуются от Mozilla Firefox.
Netscape 8 позволяет использовать два HTML-движка одновременно. «Родной» движок браузера — Gecko 1.7.5. Кроме того, браузер может подключать движок Trident, используемый Internet Explorer 5 или 6. Данная возможность, присутствующая в браузере изначально, обеспечивает 100% вероятность правильного отображения сайтов. С помощью специального менеджера можно запоминать правила выбора движка для каждого сайта в отдельности.
Последней версией браузера является 9.0 именуемая Netscape Navigator. Первая бета-версия была выпущена 5 июня 2007 года. Разрабатывалась корпорацией Netscape Communications на движке Gecko 1.9, который используется в Mozilla Firefox 2.0.
28 декабря 2007 года компания объявила о прекращении поддержки и разработки браузера.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Microsoft VS Netscape» Нажмите, для открытия спойлера | Press to open the spoiler «
Война браузеров была бы исключительно коммерческим делом корпораций, если бы основным приёмом в борьбе не стало добавление специфических, нестандартных возможностей к браузеру. Наибольшие различия возникали в поддержке JavaScript — языка сценариев, придающего интерактивность документам.
В результате многие документы были «оптимизированы» для конкретного браузера и совершенно не читались в другом. W3C принимает множество тщательно обсуждаемых стандартов (различных версий HTML, JavaScript, CSS и другие), но соблюдение этих стандартов полностью ложится на разработчиков браузеров.
В 1997 году был выпущен Internet Explorer 4.0. На вечеринке в Сан-Франциско в честь выпуска программы был представлен трёхметровый логотип IE. На следующее утро работники Netscape, придя на работу, обнаружили эту конструкцию на газоне перед своим офисом, с запиской «От команды IE… Мы любим вас».
Работники повалили эту инсталляцию и в ответ разместили на ней фигуру своего фирменного персонажа — динозавра, прикрепив ему к лапам знак с надписью «Netscape 72, Microsoft 18», имея в виду распределение долей рынка.
Internet Explorer 4 переломил ход войны браузеров. Он был интегрирован в Microsoft Windows. ИТ-специалисты и промышленные критики считали его технологически невыгодным и видели в такой практике очевидную эксплуатацию монополии Microsoft на платформе ПК.
Но пользователи не видели выгоды от использования конкурирующих продуктов, потому что IE «уже был» на их ПК.
Вот что поведал про «победу» над Netscape один из разработчиков IE 5.0 Хади Партови (Hadi Partovi):
В середине 90-х Microsoft наняла самых лучших и талантливых программистов для решения «интернет-проблемы», то есть в команду разработчиков браузера (IE) и сервера (IIS). Руководить двумя командами разработчиков поручили вице-президенту Брэду Сильвербергу (Brad Silverberg), одному из лучших менеджеров в истории Microsoft, который перед этим занимался выпуском на рынок невероятно успешного проекта Windows 95.
Вся команда разработчиков Internet Explorer состояла из суперзвёзд: «Наша работа была больше, чем просто работой. Это была страсть и дело всей жизни. Мы завтракали, обедали и ужинали на рабочем месте, мы работали до поздней-поздней ночи, — вспоминает Партови. – У нас было такое чувство, что многомиллиардная компания лишится будущего, если мы не вскочим на интернет-волну и не сделаем браузер № 1 на планете».
Выпуск Internet Explorer 5 состоялся 18 марта 1999 года. «И мы сделали браузер вдвое быстрее и в 100 раз стабильнее, чем глючный Netscape Navigator», — пишет Хади Партови. Он уверен, что благодаря высокому качеству программы рыночная доля Internet Explorer 5.0 начала расти, а браузер выиграл 100% сравнительных тестов в СМИ.
У корпорации Microsoft были мощные преимущества. Первым были ресурсы — Netscape начинал с почти 80% рынка и хорошей репутацией, но был маленькой компанией, получающей основную прибыль с единственного продукта и его дополнительных компонентов и поэтому был финансово уязвим.
Netscape был платным для коммерческих компаний, но поставлялся бесплатно для домашнего и образовательного использования. Internet Explorer поставлялся бесплатно для всех пользователей Macintosh и Windows, получая за счёт этого огромное преимущество.
Другой сильной стороной Microsoft было то, что система Windows занимала более 90% рынка операционных систем для ПК. В те времена много покупок ПК были первыми случаями такой покупки, и множество пользователей до этого не пользовались никакими браузерами, и поэтому не имели предметов для сравнения и обладали низкой мотивацией для поиска альтернатив.
Судебное разбирательство
Netscape не стала сдаваться без боя и в 1997 году подала на Microsoft в суд, обвинив компанию в монополии. Главной причиной иска стала интеграция Internet Explorer в Windows, что нарушало нормы честной конкуренции.
Адвокаты Microsoft исходили из того, что браузер был добавлен на уровне исходного кода, и убрать его из текущей версии ОС фактически невозможно. Netscape настаивали, что это ложь, и предлагали собственный выход из ситуации — полный запрет использования Internet Explorer. У Гейтса был убедительный аргумент: с помощью интеграции IE корпорация обеспечивает своим пользователям качественный софт, и запрещать браузер было бы несправедливо по отношению к ним.
В итоге Microsoft пообещала выпустить версию Windows 95 без своего браузера, но благодаря апелляциям запрет на интеграцию IE не действовал на следующую версию операционной системы, которая должна была вскоре увидеть свет.
В итоге компания заключила договор с министерством юстиции США, по которому обязалась лицензировать часть разработок, позволять производителям ПК заменять софт на альтернативный и разрешить надзор над своими документами. Решение было странным, особенно если учесть, что в суде доказали, какой вес имела в то время Microsoft.
Netscape не смогла противостоять демпингу, и в 1999 году корпоративный рынок браузеров перестал существовать — полностью бесплатный Explorer захватил более 90 процентов рынка.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Продолжение следует Первая «война браузеров» завершилась победой Internet Explorer, захватившего почти 100% рынка и отсёкшего всех сколь-либо серьёзных конкурентов. В это же время закончилась гонка инноваций в браузерах.
И даже в этой ситуации команда Netscape не опустила руки и выпустила исходный код своего браузера под свободной лицензией MPL (Mozilla Public License). На его основе были созданы новые браузеры Mozilla Suite и Mozilla Firefox. Последний должен был «отомстить» Microsoft.
Источник: habrahabr
HugoBo-SS, 10.09.2016 - 15:11
Direct3D vs OpenGL: история противостояния
По сей день в Интернете можно встретить споры о том, какой же графический API лучше: Direct3D или OpenGL? Несмотря на свой религиозный характер, такие словесные баталии приносят полезный результат в виде неплохих исторических обзоров развития аппаратно-ускоренной графики.
Целью данного поста является перевод одного из таких экскурсов в историю, написанного Джейсоном МакКессоном (Jason L. McKesson) в ответ на вопрос «Почему разработчики игр предпочитают Windows». Этот текст вряд ли отвечает на поставленный вопрос, но историю развития и противостояния двух самых популярных графических API он описывает очень красочно и довольно подробно. Текст написан в середине 2011 года и охватывает промежуток времени, начинающийся незадолго до появления Direct3D и до момента написания. Автор оригинального текста является опытным разработчиком игр, активным участником StackOverflow и создателем обширного учебника о современном программировании 3D-графики. Итак, предоставим слово Джейсону.
Рождение конфликта» Нажмите, для открытия спойлера | Press to open the spoiler «
Однажды, где-то в начале 90-х, Microsoft огляделись вокруг. Они увидели, что SNES и Sega Genesis — это очень здорово, на них можно поиграть во множество экшн-игр и всего такого. И они увидели ДОС. Разработчики писали досовские игры как консольные: близко к железу. Тем не менее, в отличие от консолей, где разработчик знал, какое железо будет у пользователя, дос-разработчики были вынуждены писать под множество конфигураций. А это намного сложнее, чем кажется.
Но у Microsoft была бо́льшая проблема: Windows. Видите ли, Windows хотела полностью владеть железом в отличие от ДОС, которая позволяла разработчикам делать всё что угодно. Владение железом необходимо для взаимодействия между приложениями. Но такое взаимодействие — это в точности то, что ненавидят разработчики игр, потому что оно потребляет драгоценные ресурсы, которые они могли бы использовать для всяких крутых вещей.
Для продвижения разработки игр на Windows, Microsoft нуждалась в однородном API, который был бы низкоуровневым, работал бы на Windows без потерь производительности, и был бы совместим с различным железом. Единый API для графики, звука и устройств ввода.
Так родился DirectX.
3D ускорители появились несколько месяцев спустя. И Microsoft вляпались в неприятности. Дело в том, что DirectDraw, графический компонент DirectX, работал только с 2D графикой: выделял графическую память и делал быстрые битовые операции между различными секторами памяти.
Поэтому Microsoft купили немного стороннего ПО и превратили его в Direct3D версии 3. Его ругали абсолютно все. И было за что: чтение кода на D3D v3 выглядело как расшифровка письменности исчезнувшей древней цивилизации.
Старик Джон Кармак в Id Software посмотрел на это безобразие, сказал «Да пошло оно...», и решил писать с использованием другого API: OpenGL.
Однако другая сторона этой запутанной истории заключалась в том, что Microsoft совместно с SGI работали над реализацией OpenGL для Windows. Идея была в том, чтобы привлечь разработчиков типичных GL-приложений для рабочих станций: САПР, систем моделирования и тому подобных вещей. Игры были последним, о чём они думали. В основном это касалось Windows NT, но Microsoft решили добавить OpenGL и в Windows 95.
Чтобы сманить разработчиков софта для рабочих станций на Windows, Microsoft решили подкупить их доступом к новомодным 3D-ускорителям. Они реализовали протокол для устанавливаемых клиентских драйверов: графическая карта могла заменить программный OpenGL от Microsoft своей аппаратной реализацией. Код автоматически использовал аппаратный OpenGL, если таковой был доступен.
Однако, в те времена потребительские видеокарты не имели поддержки OpenGL. Это не остановило Кармака от портирования Quake на OpenGL на рабочей станции SGI. В readme-файле GLQuake можно прочитать следующее:
Теоретически, glquake запустится на любой реализации OpenGL, которая поддерживает расширение texture objects. Но пока вы не запустите её на очень мощном железе, которое ускоряет всё, что нужно, работать она будет непростительно медленно. Если игре потребуется работать через какие-либо программные эмуляции, её производительность скорее всего не превысит один кадр в секунду.
В настоящее время (март 1997), единственной полностью совместимой с opengl железкой, способной потянуть glquake на приемлемом уровне, является ОЧЕНЬ дорогая видеокарта intergraph realizm. 3dlabs существенно увеличили её производительность, но с имеющимися драйверами она всё ещё недостаточно подходит для игры. Некоторые из драйверов от 3dlabs для плат glint и permedia ещё и крэшат NT при выходе из полноэкранного режима, поэтому я не рекомендую запускать glquake на железе от 3dlabs.
3dfx предоставляет opengl32.dll, которая реализует все нужное для glquake, но это не полная реализация opengl. Другие opengl-приложения скорее всего с ней не заработают, поэтому рассматривайте её в основном как «драйвер для glquake».Это было рождением miniGL драйверов.
В те времена пользовался линейкой от S3 Graphics ( последовательно были S3 Savage 3D, S3 Savage4 b S3 Savage 2k). У них OpenGL расширения драйвера назывались Metal (как сейчас у Apple ) ( HugoBo-SS)
В конечном итоге они эволюционировали в полноценные реализации OpenGL, как только железо стало достаточно мощным для аппаратной поддержки этой функциональности. nVidia стала первой, кто предложил полную реализацию OpenGL. Другие поставщики всё ещё медлили, что стало одной из причин перехода разработчиков на Direct3D, поддерживаемый более широким спектром оборудования. В конце концов остались только nVidia и AMD (которая сейчас ATI), и у обеих имелись хорошие реализации OpenGL.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Рассвет OpenGL» Нажмите, для открытия спойлера | Press to open the spoiler «
Итак, участники определены: Direct3D против OpenGL. Это поистине удивительная история, учитывая то, как плох был D3D v3.
Совет по архитектуре OpenGL (Architectural Review Board, ARB) — это организация, ответственная за поддержание и развитие OpenGL. Они выпускают множество расширений, содержат репозиторий с расширениями, и создают новые версии API. ARB — это комитет, состоящий из большого количества игроков индустрии компьютерной графики и некоторых производителей ОС. Apple и Microsoft в разное время тоже были членами ARB.
3Dfx выходит на сцену со своей Voodoo2. Это первая видеокарта, позволяющая делать мультитекстурирование, которое не было ранее предусмотрено в OpenGL. В то время как 3Dfx была решительно против OpenGL, nVidia, следующий производитель чипа с мультитекстурированием (TNT1), были без ума от OpenGL. Тогда ARB выпустил расширение GL_ARB_multitexture, которое предоставляло доступ к множественным текстурам.
Тем временем появляется Direct3D v5. Теперь D3D действительно стал API, а не какой-то несуразицей. В чём же проблема? В отсутствии мультитекстурирования.
Упс.
Но это не доставляло таких неудобств, какие могло бы доставить, потому что почти никто не использовал множественное текстурирование. Мультитекстурирование почти не вредит производительности, и во многих случаях разница незаметна на фоне многопроходности. И конечно, разработчики игр очень любят чтобы их игры уверенно работали на старом железе, которое не имело поддержку множественных текстур, поэтому многие игры были выпущены без неё.
D3D вздохнул с облегчением.
Время шло, и nVidia выкатили GeForce 256 (не путать с самым первым GeForce GT-250), прекратив борьбу на рынке графических плат на следующие два года. Главным конкурентным преимуществом этой платы была возможность делать преобразования вершин и освещение (transformation & lighting, T&L) аппаратно. Но это ещё не всё: nVidia любила OpenGL настолько, что их T&L-движок фактически и был OpenGL. Почти буквально! Как я понимаю, некоторые из их регистров получали на вход напрямую численные значения переменных типа GLenum.
Выходит Direct3D v6. Наконец то подоспело множественное текстурирование… но без аппаратного T&L. В OpenGL всегда был T&L-конвейер, хотя до GeForce 256 он был реализован программно. Поэтому для nVidia оказалось довольно просто переделать программную реализацию в аппаратное решение. В D3D аппаратное T&L появилось только к седьмой версии.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Заря эпохи шейдеров, OpenGL во мгле» Нажмите, для открытия спойлера | Press to open the spoiler «
Затем появилась GeForce 3. В то же самое время произошло много интересных вещей.
В Microsoft решили, что они больше не собираются опаздывать. Поэтому вместо того, чтобы смотреть, что сделает nVidia, и копировать их разработки уже пост-фактум, Microsoft приняли изумительное решение: пойти и поговорить. И они полюбили друг друга, и у них появилась совместная маленькая консоль.
Шумный развод произошёл позже, но это совсем другая история.
Для рынка PC это значило, что GeForce 3 вышла одновременно с D3D v8, и нетрудно видеть, как GeForce 3 повлияла на шейдеры D3D v8. Пиксельные шейдеры Shader Model 1.0 были очень сильно заточены под оборудование nVidia. Не было предпринято ни единой попытки сделать хоть что нибудь для абстрагирования от железа nVidia. Shader Model 1.0 стала тем, для чего предназначена GeForce 3.
Когда ATI ворвалась в гонку производительности видеокарт со своей Radeon 8500, появилась одна проблема. Пиксельный конвейер Radeon 8500 оказался более мощным, чем у nVidia. Поэтому Microsoft выпустила Shader Model 1.1, которая в основном была тем, для чего предназначена 8500.
Это звучит как поражение D3D, но успех и провал — понятия относительные. На самом деле эпический провал поджидал OpenGL.
В nVidia очень любили OpenGL, поэтому после выхода GeForce 3 они выпустили целую пачку расширений для OpenGL. Проприетарных расширений, которые работали только на nVidia. Естественно, когда появилась плата 8500, она не могла использовать ни одно из них.
Итак, на D3D 8 вы могли хотя бы запустить шейдеры SM 1.0. Конечно, чтобы использовать всю крутость 8500, приходилось писать новые шейдеры, но код хотя бы работал.
Чтобы получить любые шейдеры на Radeon 8500 в OpenGL, ATI пришлось разработать несколько расширений для OpenGL. Проприетарных расширений, которые работали только на ATI. В итоге, чтобы разработчики могли заявить, что они прикрутили к своему движку шейдеры, им приходилось писать отдельный код для nVidia и отдельный код для ATI.
Вы возможно спросите: «А где же был комитет ARB, который должен поддерживать OpenGL на плаву?». А были они там, где в конечном итоге оказываются многие комитеты: они сидели и тупили.
Обратите внимание, выше я упомянул ARB_multitexture, потому что это расширение глубоко замешано во всей ситуации. Стороннему наблюдателю казалось, что ARB вообще хочет избежать идеи шейдеров. Они решили, что если они вбухают достаточно конфигурируемости в фиксированный конвейер, то он сравняется по своим возможностям с программируемым шейдерным конвейером.
ARB выпускали расширения одно за другим. Каждое расширение со словами «texture_env» в названии было попыткой залатать этот устаревающий дизайн. Посмотрите на список расширений: таких расширений было выпущено восемь штук, и многие из них были переведены в основную функциональность OpenGL.
В то время Microsoft входила в ARB, и покинула его только к выпуску D3D 9, поэтому возможно, Microsoft саботировали OpenGL некоторым образом. Лично я сомневаюсь в этой теории по двум причинам. Во-первых, они должны были бы заручиться поддержкой других членов Комитета, потому как каждый участник имеет всего один голос. Во-вторых, что более важно, Комитету не нужна была помощью Microsoft чтобы всё запороть, свидетельства чему мы увидим далее.
В итоге ARB, скорее всего под давлением ATI и nVidia (обе являются активными участниками), наконец очнулся и ввёл в стандарт ассемблерные шейдеры.
Хотите ещё более дурацкую историю?
Аппаратное T&L. Это то, что в OpenGL было изначально. Чтобы получить максимально возможную производительность аппаратного T&L, нужно хранить данные вершин на GPU. Все-таки, GPU — это основной потребитель вершинных данных.
В D3D v7 Microsoft ввела концепцию вершинных буферов, которые выделяют куски памяти в GPU и размещают там данные вершин.
Хотите знать когда в OpenGL появилась эквивалентная функциональность? Да, nVidia, как самый большой любитель OpenGL, выпустила своё расширение для хранения массивов вершин на GPU ещё во времена выхода GeForce 256. Но когда же ARB представил такую функциональность?
Два года спустя. Это было после того, как она утвердили вершинные и фрагментные (пиксельные в терминах D3D) шейдеры. Столько времени ушло у ARB чтобы разработать кросс-платформенное решение для хранения вершинных данных в памяти GPU. И это то, что необходимо, чтобы аппаратное T&L достигло максимальной производительности.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Один язык, чтобы убить их всех» Нажмите, для открытия спойлера | Press to open the spoiler «
Итак, OpenGL был сломан в течение какого-то времени. Отсутствовали кросс-платформенные шейдеры и аппаратно-независимое хранение вершин в GPU, в то время как пользователи D3D наслаждались и тем и другим. Могло ли стать ещё хуже?
Можно сказать, что могло. Встречайте: 3D Labs.
Вы спросите: кто же они? Они — мёртвая компания, которую я считаю истинным убийцей OpenGL. Конечно, общая несостоятельность Комитета сделала OpenGL уязвимым, в то время как он должен был рвать D3D в клочья. Но по-моему, 3D Labs — возможно единственная причина текущего положения OpenGL на рынке. Что они для этого сделали?
Они разработали язык шейдеров для OpenGL.
3D Labs были умирающей компанией. Их дорогостоящие GPU были вытеснены с рынка рабочих станций всё возрастающим давлением nVidia. И в отличие от nVidia, 3D Labs не были представлены на потребительском рынке; победа nVidia означала бы смерть для 3D Labs.
Что в итоге и случилось.
В стремлении оказаться на плаву в мире, которому были не нужны их продукты, 3D Labs заявились на конференцию Game Developer Conference с презентацией того, что они назвали «OpenGL 2.0». Это был OpenGL API, переписанный с нуля. И это имело смысл, ибо в те времена в API OpenGL было полно хлама (который, впрочем, остаётся там и по сей день). Посмотрите хотя бы на то, насколько эзотерически сделаны загрузка и биндинг текстур.
Частью их предложения был язык шейдеров. Да, именно он. Тем не менее, в отличие от имеющихся кросс-платформенных расширений, их язык шейдеров был «высокоуровневым» (C — это высокий уровень для языка шейдеров).
В это же время в Microsoft работали над своим собственным языком шейдеров. Который они, включив всё своё коллективное воображение, назвали… Высокоуровневым Языком Шейдеров (HLSL). Но их подход к языку был фундаментально иным.
Наибольшей проблемой языка от 3D Labs было то, что он был встраиваемым. Microsoft полностью самостоятельно определяла свой язык. Они выпустили компилятор, который генерировал ассемблерный код для шейдеров SM 2.0 (или выше), который, в свою очередь, можно было скармливать D3D. Во времена D3D v9, HLSL никогда не касался D3D напрямую. Он был хорошей, но необязательной абстракцией. У разработчика всегда была возможность взять выхлоп компилятора и подправить его для максимальной производительности.
В языке от 3D Labs ничего этого не было. Вы отдаёте драйверу C-подобный язык, и он создаёт шейдер. На этом всё. Никакого ассемблерного шейдера, ничего, что можно скормить чему-то ещё. Только объект OpenGL, представляющий шейдер.
Для пользователей OpenGL это означало, что они становились подвержены капризам разработчиков OpenGL, которые только научились компилировать ассемблероподобные языки. В компиляторах новорождённого языка шейдеров OpenGL (GLSL) свирепствовали баги. Что ещё хуже, если вам удавалось заставить шейдер корректно компилироваться на различных платформах (что уже само по себе было большим достижением), то он всё ещё был подвержен оптимизаторам тех времён, которые были не так уж оптимальны, как могли бы быть.
Это было большим, но не единственным недостатком GLSL. Далеко не единственным.
В D3D, как и в старых ассемблерных языках OpenGL, можно было смешивать и всячески комбинировать вершинные и фрагментные шейдеры. Можно было использовать любой вершинный шейдер с любым совместимым фрагментным шейдером, если они взаимодействовали через одинаковый интерфейс. Более того, допускалась даже некоторая несовместимость: например, вершинный шейдер мог подать на выход значение, которое не использовалось фрагментным шейдером.
В GLSL ничего такого не было. Вершинный и фрагментный шейдер сплавлялись воедино, образовывая нечто, названное компанией 3D Labs «программным объектом». Поэтому, для совместного использования нескольких вершинных и фрагментных шейдеров в различных комбинациях, приходилось создавать несколько программных объектов. Это стало причиной второй по величине проблемы.
3D Labs думали, что они самые умные. Они взяли C/C++ за основу для модели компиляции GLSL. Это когда вы берёте один c-файл и и компилируете его в объектный файл, а затем берёте несколько объектных файлов и компонуете их в программу. Именно так компилируется GLSL: сначала вы компилируйте вершинный или фрагментный шейдер в шейдерный объект, затем помещаете эти объекты в программный объект и компонуете их воедино чтобы наконец сформировать программу.
В теории это позволяло появиться таким крутым вещам, как «библиотечные» шейдеры, которые содержат код, вызываемый основным шейдером. На практике это приводило к тому, что шейдеры компилировались дважды: один раз на стадии компиляции и второй раз на стадии компоновки. В частности, этим славился компилятор от nVidia. Он не генерировал какой-либо промежуточный объектный код; он компилировал вначале, выбрасывал полученный результат и компилировал заново на стадии компоновки.
Таким образом, чтобы приделать вершинный шейдер к двум разным фрагментным шейдерам, приходилось компилировать намного больше, чем в D3D. Особенно с учётом того, что вся компиляция производится оффлайново, а не перед непосредственным исполнением программы.
У GLSL были и другие проблемы. Возможно, было бы неправильным сваливать всю вину на 3D Labs, ибо в конечном итоге ARB утвердили и включили в OpenGL язык шейдеров (но ничего больше из предложений 3DLabs). Однако, изначальная идея всё равно была за 3D Labs.
И теперь самое печальное: 3D Labs были правы (в основном). GLSL не векторный язык, каким в то время был HLSL. Так случилось потому, что железо 3D Labs было скалярным (как современное железо от nVidia), и они были полностью правы в выборе направления, которому позднее последовали многие производители оборудования.
Они были правы и с выбором модели компиляции для «высокоуровневого» языка. Даже D3D в итоге к этому пришёл.
Проблема в том, что 3D Labs были правы в неправильное время. И в попытках попасть в будущее преждевременно, в попытках быть готовыми к будущему, они отставили в сторону настоящее. Это выглядит как T&L-функциональность в OpenGL, которая была в нём всегда. За исключением того, что T&L-конвейер OpenGL был полезным и до появления аппаратного T&L, а GLSL был обузой до того как остальной мир догнал его.
GLSL — это хороший язык сейчас. Но что было в то время? Он был ужасен. И OpenGL пострадал от этого.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« На подходе к апофеозу» Нажмите, для открытия спойлера | Press to open the spoiler «
Я поддерживаю ту точку зрения, что 3D Labs нанесли OpenGL смертельный удар, но последний гвоздь в крышку гроба забил сам ARB.
Возможно вы слышали эту историю. Во времена OpenGL 2.1, у OpenGL были большие проблемы. Он тащил за собой огромный груз совместимости. API больше не был простым в использовании. Одну вещь можно было сделать пятью разными способами и непонятно какой из них быстрее. Можно было «изучить» OpenGL по простым руководствам, но при этом вы не изучали тот OpenGL, который даёт настоящую графическую мощь и производительность.
ARB решили предпринять ещё одну попытку изобрести OpenGL. Это было как «OpenGL 2.0» от 3D Labs, но лучше, потому что за этой попыткой стоял ARB. Они назвали это «Longs Peak».
Что такого плохого в том, чтобы потратить немного времени на улучшение API? Плохо то, что Microsoft оказалась в довольно шатком положении. Это было время перехода на Vista.
В Vista Microsoft решили внести давно напрашивающиеся изменения в графические драйверы. Они заставили драйверы обращаться к ОС за виртуализацией графической памяти и многим другим.
Можно долго спорить о достоинствах такого подхода, и о том, был ли он вообще возможен, но факт остаётся фактом: Microsoft сделала D3D 10 только для ОС Vista и выше. Даже на поддерживающем D3D железе было невозможно запустить D3D приложение без Висты.
Вы возможно помните, что Виста… скажем так, работала не очень хорошо. Итак, у нас была неторопливая ОС, новый API, который работал только на этой ОС, и новое поколение железа, которое нуждалось в этом API и ОС чтобы делать нечто большее, чем просто превосходить предыдущее поколение в производительности.
Тем не менее, разработчики могли использовать функциональность уровня D3D 10 через OpenGL. То есть могли бы, если бы ARB не был занят работой над Long Peaks.
ARB потратили добрые полтора-два года, работая над улучшением API. Ко времени выхода OpenGL 3.0 переход на Висту закончился, Windows 7 была на подходе, и разработчиков игр больше не заботила функциональность уровня D3D 10. В конце концов, оборудование для D3D 10 прекрасно работало с приложениями на D3D 9. С увеличением темпов портирования с ПК на консоли (или с переходом ПК-разработчиков на консольный рынок), разработчикам всё меньше была нужна функциональность D3D 10.
Если бы разработчики получили доступ к этой функциональности даже на Windows XP, развитие OpenGL могло бы получить живительный заряд бодрости. Но ARB упустили эту возможность. А хотите знать что самое ужасное?
ARB не смогли изобрести API с нуля несмотря на трату двух драгоценных лет на попытки сделать это. Поэтому они вернули статус-кво, добавив лишь механизм для объявления функциональности устаревшей.
В итоге ARB не только упустили ключевые возможности, но и не выполнили ту работу, которая привела их к этому упущению. Это был epic fail по всем направлениям.
Такова история о противостоянии OpenGL и Direct3D. История упущенных возможностей, величайшей глупости, умышленного безрассудства и банальных нелепостей.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Источник: geektimes
Кстати, примером удачного противостояния OpenGL vs DirectX можно считать HL2 от Valve, которая под OGL и выглядела лучше, и "жрала ресурсов" меньше, чем D3D9
( HugoBo-SS).
ИМХО, кроме "задержки обновления актуальности" API, причинами которых являются многие факторы ( в том числе попытки ( частенько удачные) "потопления конкурентов" и конкурентных технологий, различными способами), является человеческий фактор ( в плане прикладного профессионализма). Наблюдаемо подобное веяние и сейчас... Даже в большей степени
zoog, 10.09.2016 - 19:18
Цитата | Quote
Видите ли, Windows хотела полностью владеть железом в отличие от ДОС, которая позволяла разработчикам делать всё что угодно. Владение железом необходимо для взаимодействия между приложениями. Но такое взаимодействие — это в точности то, что ненавидят разработчики игр, потому что оно потребляет драгоценные ресурсы, которые они могли бы использовать для всяких крутых вещей.
Поправьте меня те, кто сам разбирается, но абстракция от железа - это основная функция ОС, и именно это любят разработчики. Хотя тогда мож действительно приходилось бороться за каждый десяток процентов производительности.
HugoBo-SS, 12.09.2016 - 18:12
Цитата | Quote(zoog @ 10.09.2016 - 19:22)
абстракция от железа - это основная функция ОС
Всё же основная функция - помощь взаимодействию программ и железа, а не абстракция их от последнего.
Про функции ОСи можно даже на вики почитать, если не совсем вкурсе
Цитата | Quote(zoog @ 10.09.2016 - 19:22)
бороться за каждый десяток процентов производительности
Подобное - нормальный шаг в части оптимизации. Несоблюдение, в том числе, и его, и ведёт ( и привело) к огромной массе "шлаковых" программных продуктов.
zoog, 12.09.2016 - 18:42
Всё же основная функция - помощь взаимодействию программ и железа, а не абстракция их от последнего.
То есть унификация взаимодействия с железом путём перенесения его на более высокий уровень - для меня это зввучит как абстракция. Или же есть системы, которые и унифицируют железо и не скрывают его?
Цитата | Quote
Подобное - нормальный шаг в части оптимизации
Я иронизировал, в том и дело, что счас десятки процентов разбрасывают прямо как деньги из госбюджета.
HugoBo-SS, 12.09.2016 - 22:02
Цитата | Quote(zoog @ 12.09.2016 - 18:46)
есть системы, которые и унифицируют железо и не скрывают его?
Унификация унификации рознь. Сокрытие железа от кого-чего? Механизмы аля "идеальное ядро", планировщик звуковых потоков и прочие мелксофтовские
херотени "фичи"?
zoog, 12.09.2016 - 23:15
Цитата | Quote
Унификация унификации рознь. Сокрытие железа от кого-чего?
Я как раз это и спрашивал) Унификация, как я понимаю, это предоставления приложениям единого интерфейса для каждого класса устройств с помощью драйверов, при этом сама модель оборудования скрывается.
HugoBo-SS, 12.09.2016 - 23:57
Цитата | Quote(zoog @ 12.09.2016 - 23:19)
предоставления приложениям единого интерфейса для каждого класса устройств с помощью драйверов, при этом сама модель оборудования скрывается.
Скорее так: не интерфейса ( он
глубоко вторичен), а соблюдения некоторых стандартов в сфере применения; модели оборудования - не скрываются, посольку даже возможности реализации стандартов в этих самых разных моделях (даже в ревизиях одной модели производителя) бывают разные. Мы не рассматриваем т.н. унифицированные драйверы самой ОС, которые обеспечивают БАЗОВЫЕ возможности этих самых стандартов и которыми ДОЛЖНЫ обладать все устройства данной сферы применения.
zoog, 13.09.2016 - 1:35
Хех, для меня "единый интерфейс" и "соблюдение стандартов" мало различимы, не сварщик я. Но всё же эти "стандарты применения" находятся над драйверами, а не происходят через порты (то, что называется низкоуровневым доступом, как мне кажется) - то есть оборудование скрывается, так?
HugoBo-SS, 13.09.2016 - 2:14
Цитата | Quote(zoog @ 13.09.2016 - 1:39)
"стандарты применения" находятся над драйверами, а не происходят через порты (то, что называется низкоуровневым доступом, как мне кажется)
Как раз под драйверами, на более низком уровне: как максимум, на уровне ОСи или ниже, если ОС даёт прямой доступ к железу. Вот мы и вернулись к "lapis offensionis"
Как пример из жизни современных окон и вопроса DirectX vs OpenGL - Mantle и Vulkan.
zoog, 13.09.2016 - 2:28
Цитата | Quote
Как раз под драйверами, на более низком уровне
Минутку, то есть стандартным является доступ к оборудования "под драйверами"??
HugoBo-SS, 13.09.2016 - 5:39
Цитата | Quote(zoog @ 13.09.2016 - 2:32)
то есть стандартным является доступ к оборудования "под драйверами"??
Да, доступ ОС к возможностям оборудования без драйверов невозможен. Это относится к любой операционной системе.
Хотя я не об этом говорил выше, о стандартах взаимосвязи на уровне, грубо, сигнальных протоколов, которые ниже (ближе к железу).
zoog, 13.09.2016 - 13:26
Цитата | Quote
Да, доступ ОС к возможностям оборудования без драйверов невозможен. Это относится к любой операционной системе.
Речь шла о предоставляемых программам стандартным способам взаимодействия, которые по-Вашему "под" драйверами.
Цитата | Quote
Хотя я не об этом говорил выше, о стандартах взаимосвязи на уровне, грубо, сигнальных протоколов, которые ниже (ближе к железу).
Грубо - каких сигнальных протоколов, например? То есть плэер обращается к аудиоустройству не через API, а "на близком к железе уровне"?
HugoBo-SS, 14.09.2016 - 13:53
Цитата | Quote(zoog @ 13.09.2016 - 13:30)
о предоставляемых программам стандартным способам взаимодействия, которые по-Вашему "под" драйверами.
стандартные способы взаимодействия - это , по-Вашему (как я понял), API? Я же,всегда считал и считаю, что API - инструменты реализации стандартов ( ПРИКЛАДНОЙ набор правил доступа к функциям стандарта), и среди первых, как правило, есть выбор.
Потому, повторюсь: интерфейсы вторичны.
Цитата | Quote(zoog @ 13.09.2016 - 13:30)
То есть плэер обращается к аудиоустройству не через API, а "на близком к железе уровне"?
Во времена, к примеру, RT-11 и винигрета всяких DOS ( включая мелкомягкие) так и было. Даже в Виндах "кислород перекрыли" окончательно только в Висте. Потом, правда, начиная с 7-ки, дали возможность чуть ослабить удавку разработчикам ( почитайте про проблематику работы звуковых устройств, к примеру. хорошо иллюстрирует).
zoog, 14.09.2016 - 22:21
Цитата | Quote
стандартные способы взаимодействия - это , по-Вашему (как я понял), API?
Почему это по-моему, эта Ваша терминология). Я никогда не слышал о существовании жизни "под драйверами", за исключением работы через порты.
Цитата | Quote
Даже в Виндах "кислород перекрыли" окончательно только в Висте.
И что же там было, помимо API?
HugoBo-SS, 14.09.2016 - 23:31
Цитата | Quote(zoog @ 14.09.2016 - 22:25)
Я никогда не слышал о существовании жизни "под драйверами", за исключением работы через порты.
Они, как правило, назывались резидентными утилитами начальной загрузки и было их немного, поскольку стандарты реализовывались на уровне BIOSов устройств.
Цитата | Quote(zoog @ 14.09.2016 - 22:25)
И что же там было, помимо API?
Немножко тут
И был когда-то развёрнутый материал на хабре, но найти сейчас не смог.
AquaTour, 14.09.2016 - 23:39
Цитата | Quote(HugoBo-SS @ 14.09.2016 - 13:57)
Я же,всегда считал и считаю, что API - инструменты реализации стандартов
Значит заблуждались и заблуждаетесь. Обратитесь к определению, возможно станет понятнее, когда не найдете там слова "стандарт"
Цитата | Quote(HugoBo-SS @ 14.09.2016 - 13:57)
Во времена, к примеру, RT-11 и винигрета всяких DOS ( включая мелкомягкие) так и было
вы либо не понимаете, либо не хотите понять. Во времена DOS если звуковая карта не поддерживалась игрой, вы могли совокупляться хоть с тремя конями, это бы не решило проблему. Сейчас же совокуплений не нужно, надо лишь установить драйвера на звуковую карту (ассортимент которых несоизмеримо больше, чем во времена DOS) и не думать о настройках звука в игре.
В целом по вашим сообщениям сложилось впечатление, что вы мягко говоря не совсем компетентны в тех вопросах, о которых говорите...
Цитата | Quote(zoog @ 14.09.2016 - 22:25)
И что же там было, помимо API?
Прямой доступ к железкам. Собственно по этой причине и выпилили 16 битные приложения
zoog, 15.09.2016 - 0:49
Цитата | Quote(HugoBo-SS)
Они, как правило, назывались резидентными утилитами начальной загрузки и было их немного, поскольку стандарты реализовывались на уровне BIOSов устройств.
Мы всё ещё говорим о современных ОС типа виндовс?
Цитата | Quote(Прямой доступ к железкам.)
Прямой доступ к железкам.
То есть работа через порты? Звиняйте что чайницкие вопросы у меня) Это было для поддержки ДОС-игр или и в виндовс такое использовалось?
HugoBo-SS, 15.09.2016 - 1:55
Цитата | Quote(AquaTour @ 14.09.2016 - 23:43)
Значит заблуждались и заблуждаетесь
Aplication programming interface - не средство реализации?
Цитата | Quote(HugoBo-SS @ 14.09.2016 - 13:57)
ПРИКЛАДНОЙ набор правил доступа
. Возможно, я не совсем корректно выразился, пропустив сочетание "в том числе по отношению к"
Цитата | Quote(AquaTour @ 14.09.2016 - 23:43)
вы либо не понимаете, либо не хотите понять. Во времена DOS если звуковая карта не поддерживалась игрой, вы могли совокупляться хоть с тремя конями, это бы не решило проблему
Я звуковые карты, относительно вопроса тех систем, и не упоминал. Только "эволюцию" доступа в виндах. Но, впрочем, вспомнил одну замечательную карту, что у меня была ( и лежит до сих пор, как память) Media Vision Pro AudioSpectrum 16, так у неё были драйвера и под DOS: инициализация, настройки прерываний, каналов доступа к памяти.
Есть ещё оптическая пятикнопочная мышка Artech, 1988 года выпуска ( с координатной доской). Тоже без драйвера под DOS не работала. В нежопоруких приложениях ( к коим игры, по-большей части, как тогда и так и сейчас, не относятся) вполне себе работала. Это говорит, мне кажется, в частности, о том, что API может быть или не быть, а стандарты соблюдать надо
Цитата | Quote(zoog @ 15.09.2016 - 0:53)
То есть работа через порты?
Скорее, обработка ввода-вывода ( но не всегда только это).
AquaTour, 19.09.2016 - 13:30
Цитата | Quote(zoog @ 15.09.2016 - 0:53)
То есть работа через порты?
да, можно было обращаться к портам устройств и их памяти, например в память видеоадаптера писали.
Цитата | Quote(zoog @ 15.09.2016 - 0:53)
Это было для поддержки ДОС-игр или и в виндовс такое использовалось?
Скорее для поддержки старых программ, многие системы разрабатывались во времена DOS и были несовместимы с NT, да тот же Turbo Pascal вроде как уже не работоспособен на системах младше XP
Цитата | Quote(HugoBo-SS @ 15.09.2016 - 1:59)
Aplication programming interface - не средство реализации?
не пытайтесь увести в сторону, вы говорили про стандарты, продолжайте
Цитата | Quote(HugoBo-SS @ 15.09.2016 - 1:59)
Только "эволюцию" доступа в виндах.
Во первых вы кавычки ошибочно поставили, т.к. это действительно эволюция. Как там в других современных ОС все устроено?
Цитата | Quote(HugoBo-SS @ 15.09.2016 - 1:59)
Это говорит, мне кажется, в частности, о том, что API может быть или не быть, а стандарты соблюдать надо
именно кажется, стандарты на таком уровне приведут к замедлению прогресса. Текущая архитектура подразумевает разделение ответственности. Программа => API ОС => Драйвер => Железка
Разработчик программы должен корректно использовать вызовы API, т.к. он лучше всех знает как должна работать программа.
Разработчики ОС лучше всех знаю как обратиться к драйверу
Разработчики драйвера совместно с разработчиками железки лучше всех знают как с ней надо работать.
Если разработчик программы вынужден будет разбираться во всех уровнях, он уйдет от основной проблемной области. Наличие проблемы на любом из этих уровней, решается исправлением всего лишь этого уровня.
HugoBo-SS, 19.09.2016 - 18:15
Цитата | Quote(AquaTour @ 19.09.2016 - 13:34)
тот же Turbo Pascal вроде как уже не работоспособен на системах младше XP
Может, наоборот, и не сам по-себе, а досовский IDE реального режима? Вполне продолжил свою жизнь в Delphi, развившись до Object Pascal.
Цитата | Quote(AquaTour @ 19.09.2016 - 13:34)
приведут к замедлению прогресса
Я - не об этом же, а о месте в иерархии доступа.
AquaTour, 19.09.2016 - 21:26
Цитата | Quote(HugoBo-SS @ 19.09.2016 - 18:19)
Может, наоборот, и не сам по-себе, а досовский IDE реального режима? Вполне продолжил свою жизнь в Delphi, развившись до Object Pascal.
Я безусловно о IDE, и развился он не до Object Pascal, а до Delphi
HugoBo-SS, 19.10.2016 - 21:03
Компьютеры Xerox®. Опережая время
Сила бренда – великая вещь. Часто ли вы называете копир «копиром», а не «ксероксом»? Думаю, нечасто. И не важно, выпустила ли копир компания Xerox или кто-то другой. Слово «ксерокс» укрепилось в языке, потому что именно Xerox изобрела и ввела в массы данное устройство.
А знает ли кто-нибудь о компьютерах фирмы Xerox? Нет? А между прочим, это изобретение компании было не менее революционным, чем изобретение копиров.
Производство компьютеров Xerox началось без малого 40 лет назад, но идеи, положенные в основу их разработки, успешно используются по сей день – графический интерфейс, использование трёхкнопочной мыши, концепция WYSIWYG (what you see is what you get – что видишь, то и получаешь). А сами эти компьютеры опережали своё время лет на десять-двадцать! Сегодня мы предлагаем вашему вниманию самый подробный рассказ о компьютерах Xerox на русском языке...
Xerox Alto» Нажмите, для открытия спойлера | Press to open the spoiler «
Всё началось в 1970-х, когда в исследовательском центром в Пало-Альто (PARC) был разработан, по сути, первый компьютер, который можно было отнести к классу «персональных» в его нынешнем понимании – Xerox Alto. Он был относительно маленьким и мощным, и был ориентирован на использование в офисе. Но главное – он мог представлять всю информацию в удобоваримом графическом виде. Эту машину планировалось использовать совместно с разрабатывающимися в то время Xerox лазерными принтерами. Правда, проект Alto был, по сути, опытной моделью, ставшей основой для будущих разработок Xerox. Несмотря на то, что некоторые экземпляры Alto были предоставлены различным организациям, компьютеры эти официально никогда не продавались.
Xerox Alto
Точный год производства Alto, увы, неизвестен. Ряд источников утверждает, что Xerox Alto был разработан в 1971 году, тогда как Википедия говорит, что разработка велась с 1972 по 1973 год. Единственный достоверно известный факт – то, что к 1979 году Alto был уже полностью разработан. (Запомните этот год – скоро мы расскажем о преинтересном событии, которое случилось в этом году и изменило вид всего мирового IT.)
Системные характеристики компьютера Alto были таковы:
– корпус размером с небольшой холодильник (что же, это лучше, чем типичные «шкафы» тех времен);
– монохромный графический дисплей с разрешением 606x808, «вытянутый» по вертикали (по мнению инженеров, монитор такой ориентации должен был напоминать офисным работникам о листах бумаги формата A4);
– трёхкнопочная мышь (на некоторых мышах кнопки были покрашены в красный, жёлтый и синий цвета, на других все кнопки были чёрными);
– опционально можно было подключить дополнительный 5-клавишный кейсет (chord key set) под левую руку;
Система управления компьютером с помощью мыши и кейсета, получившая название On-Line System (NLS), была разработана сотрудником Стэнфордского исследовательского института (Stanford Research Institute) Дугом Энгелбартом. NLS работала с мэйнфреймами PDP-10 фирмы DEC и представляла собой комплект из разработанных Энгелбартом мыши, кейсета, клавиатуры нового дизайна и специального программного обеспечения для работы с NLS (текстовой редактор, программа проверки орфографии и т.д.). Работа с мышью одной рукой и проигрывание «аккордов» другой рукой позволяло опытному пользователю эффективно использовать систему и исключить постоянные движения рук от мыши к клавиатуре (кстати, эта проблема не решена до сих пор). Увы, рынок не принял кейсет (ему досталась лишь сверхмалая доля в виде специфического игрового манипулятора), однако мышь, как вы видите, давно и хорошо используется в компьютерах.
– 2,5-мегабайтные съёмные диски (гигантский объём для эпохи килобайтных носителей, не правда ли? Правда, размеры... См. фото выше.);
– очень прогрессивный для того времени 16-битный программируемый процессор, использующий микрокод и чипы TTL;
– 128 Кбайт оперативной памяти (включая видеопамять), расширяемой до 512 Кбайт;
– cетевая карта, использующая разработанный в PARC протокол Ethernet (и это за 20 лет до массового распространения сетей!).
Понятно, что в наше время всё вышеперечисленное кажется ерундой, но для того времени Alto был прорывом, ведь других персональных компьютеров тогда просто не существовало. Первый коммерческий и массовый ПК появился лишь в 1975 году – это был легендарный Altair 8800.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Altair 8800» Нажмите, для открытия спойлера | Press to open the spoiler «
Altair 8800 с 8-дюймовым дисководом
Altair 8800b
По сути, Altair был просто «чёрным ящиком» без ОС, монитора, клавиатуры, дисководов, дисков и прочей периферии. Единственным способом общения пользователя с ПК было манипулирование двоичными ключами – маленькими переключателями типа «вверх-вниз». Обратная связь была тоже в двоичном виде – с помощью маленьких лампочек. Кроме того, Altair, в сравнении с Alto, обладал более слабым 8-битным процессором Intel 8080, а его оперативная память объёмом 256 байт (!) годилась лишь для простейших вычислений.
Правда, стоил «чёрный ящик» немного: $621 за машину «в сборе» и всего $439 за комплект для собственноручной сборки. Правда, с учётом покупки дополнительной памяти, монитора, принтера, клавиатуры и ОС сумма могла спокойно перевалить за три тысячи долларов. К тому же, пользователи Altair должны были прекрасно разбираться в электронике (для сборки компьютера) и математике (перевод чисел из двоичной системы счисления и обратно). Alto же был полностью готовой к работе системой, со всем необходимым оборудованием и ПО – настоящим компьютером в современном понимании.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Кстати, о ПО.» Нажмите, для открытия спойлера | Press to open the spoiler «
Несмотря на то, что Alto и многие его программы имели графический интерфейс, операционная система такового не имела. То есть, общение пользователя с компьютером происходило так же, как и в операционных системах CP/M и MS-DOS – с помощью командной строки.
Командная строка Xerox Alto называлась Alto Executive. Похожая рабочая среда, Net Executive, могла запускать программы, находящиеся на удалённом компьютере (!).
Несколько интересных фактов о рабочей среде и файловой системе Xerox Alto.
– допускалось использование длинных имен файлов, не чувствительных к регистру;
– каждая «страница» (сектор) диска содержала информацию о файлах в каждой странице (избыточное дублирование файловой системы); используя эту информацию, программа Scavenger (на русский можно перевести как «падальщик») могла восстанавливать повреждённые и удалённые файлы;
– Executive имел функцию автодополнения имен файлов (подобная возможность много позже появилась в Unix).
А ещё Alto имел собственный двухпанельный (как у современных «коммандеров») файловый менеджер, работающий с мышью – Neptune Directory Editor;
Заметьте, что операции с файлами можно было выполнять с помощью мыши. Надпись в верхней части экрана гласит: «Выберите файлы с помощью мыши. Красная кнопка – копировать, жёлтая – копировать/переименовывать, синяя – удалить. Нажмите кнопку “Start” для запуска программ». (Хм... А что делать владельцам мышей, чьи кнопки были чёрными?) Увы, Neptune Directory Editor, как и другие программы для Alto, не отличались стабильностью.
Alto Executive после загрузки
Neptune Directory Editor в работе
Вообще же, программ для Alto было разработано очень много – от текстовых и графических редакторов до игр. Некоторые из них заслуживают отдельного упоминания.
Bravo, текстовый редактор, построенный по принципу WYSIWYG, используемому ныне во всех текстовых редакторах. Bravo имел множество опций форматирования и шрифтов. Вытянутый монитор Alto позволял пользователю лицезреть страницу целиком, не прибегая к скроллингу и не ухудшая качество отображения.
Графический редактор Draw. Главной его особенностью являлось то, что объектами можно было манипулировать индивидуально, как в современных редакторах векторной графики.
Думаете, что родоначальником жанра FPS был Wolfenstein 3D? Вовсе нет! Первой 3D-игрой с лабиринтом, мультиплеером по сети (!) и убийством монстров была игра MazeWar, разработанная за 20 лет до Doom для компьютеров Imlac (были такие компьютеры, использующие векторную графику), а затем – портированная на Alto. Для Alto было выпущено немало и других игр – начиная от симулятора блэкджэка и заканчивая одной из первых в мире многопользовательских сетевых игр – Alto Trek.
Текстовый редактор Bravo,графический редактор Draw (1979 год!), MazeWar
Но самым большим плюсом Alto было большое число языков программирования: низкоуровневые BCPL и MESA и высокоуровневые LISP и Smalltalk. Последний, кстати, представлял собой графический объектно-ориентированный язык с собственным оконным интерфейсом.
Smalltalk в работе
Помните, я просил вас запомнить 1979 год? Ну так вот, именно в 1979 году знаменитый Стив Джобс (основатель компании Apple) посетил PARC и увидел Smalltalk и её оконный интерфейс. «Вот то, что нужно пользователю – интуитивно понятный интерфейс!» – подумал Стив, и вскоре инженеры, разрабатывающие Alto и Smalltalk, были перекуплены у Xerox и стали работать на Apple. В 1982 году эти инженеры разработали легендарный компьютер с графическим интерфейсом – Apple Lisa.
Это событие подстегнуло программистов для IBM PC, и в 1983 году была выпущена первая графическая оболочка для MS-DOS – Visi On, а в 1985 году аналогичный продукт под названием Windows представила компания Microsoft.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Вот так вот. Не раскрой в 1979 году Xerox свои наработки, касающиеся Alto, и неизвестно, кто бы смог стать лидером нарождавшегося в те годы сегмента рынка. Но тогда руководство Xerox посчитало идею «компьютера, понятного каждому» абсурдной, а проект Alto – лишь детской забавой. Но об этом – чуть позже...
А тем временем в недрах Xerox PARC на основе Alto разрабатывался первый в истории ноутбук – Xerox NoteTaker.
Xerox NoteTaker» Нажмите, для открытия спойлера | Press to open the spoiler «
Xerox NoteTaker
Его разработка началась в 1976 году, и хотя до массового производства дело так и не дошло, инженеры собрали около десятка прототипов, которые оказали сильное влияние на конструкцию и дизайн более поздних коммерческих портативных компьютеров Osborne 1 и Compaq Portable.
Стоит отметить, что NoteTaker был спроектирован командой, в которую входили Адель Голдберг, Дуглас Фейрбейрн и Ларри Теслер, и вобрал в себя многое из более ранних исследований другого компьютерщика – Алана Кея, который работал над концепцией переносного компьютера Dynabook. Последний, впрочем, так и остался всего лишь концепцией, которую невозможно было реализовать на базе технологий того времени. Создатели NoteTaker взялись доказать, что возможно всё.
Портативный компьютер использовал самые передовые технологии тех времен, включая встроенный монохромный монитор, флоппи-дисковод и компьютерную мышь. Он обладал 128 Кбайт ОЗУ (по меркам того времени – очень много) и работал на процессоре с тактовой частотой 1 МГц. Информации о ёмкости батарей NoteTaker найти, увы, не удалось, но есть предположение, что детище Xerox, как и Compaq Portable, батареи не имело. (То есть и NoteTaker, и Compaq Portable относились скорее не к ноутбукам, а к другому, сегодня уже забытому классу устройств – Nomad.)
NoteTaker помещён в корпус, похожий по форме на корпус переносной швейной машинки. Клавиатура откидывалась вниз, открывая монитор и флоппи-дисковод. Такое конструктивное решение позже было использовано в ставших очень успешными переносных компьютерах Osborne 1 и Compaq Portable.
Osborne 1
Однако эти более поздние компьютеры были наполовину легче NoteTaker'a, который весил 22 кг. Если бы NoteTaker выпускался для продажи, то его цена, по всей вероятности, превышала бы 50 тысяч долларов.
Как и у Alto, графической средой у NoteTaker был Smalltalk.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Так или иначе, но и Alto, и NoteTaker, оказав решающее влияние на IT-индустрию, навсегда остались лишь прототипами. Но были у Xerox и коммерческие разработки, так же опередившие своё время.
Хотя руководство Xerox и совершило историческую ошибку, открыв результаты разработки Alto, PARC продолжил работу над персональными ПК. Первыми ласточками на этом поприще стали прототипы под кодовыми названиями Dolphin и Dorado, использующие архитектуру Alto. (Они были полностью совместимы с Alto на уровне ПО.) Но уже в следующем прототипе, получившем кодовое имя Dandelion, инженеры камня на камне не оставили от прежней архитектуры, что сделало ПО, написанное для Alto, бесполезным.
Dandelion - Xerox 8010 Information System» Нажмите, для открытия спойлера | Press to open the spoiler «
Xerox 8010 Information System
В 1981 году Dandelion, обретший официальное название Xerox 8010 Information System, поступил в продажу и оказался первым коммерчески продаваемым ПК с полностью графическим интерфейсом (Apple Lisa увидела свет годом позже).
Xerox 8010 Information System
Системные характеристики Xerox 8010 Information System впечатляли:
– процессор, основанный на AMD 2900;
– 384 Кбайт оперативной памяти (расширяемой до 1,5 Мбайт);
– жёсткий диск ёмкостью 10, 29 или 40 Мбайт;
– дисковод для 8'' дискет (да-да, и такие были!);
– 17" монохромный дисплей с разрешением 1024x808 пикселей (начиная с этой модели дисплей обрёл классические пропорции и ориентацию, а его разрешение даже по нынешним меркам считается весьма неплохим);
– двухкнопочная мышь (о третьей кнопке не вспомнят ещё много лет);
– поддержка сетей Ethernet;
– операционная система «Pilot» вкупе с графической средой «Star». О последней стоит рассказать отдельно.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Графическая среда «Star» и ПО» Нажмите, для открытия спойлера | Press to open the spoiler «
Как видите, программная оболочка компьютера впервые получила своё собственное название. Использовалась она, кстати, на всех компьютерах Xerox тех времен. Так, принт-серверы хотя и не имели графического интерфейса (и общались с пользователем с помощью текстового терминала TTY), но работали под управлением ОС Pilot. Аналогичные же по «железу» компьютеры Xerox 1108 AI Workstation были укомплектованы Pilot и языком программирования Interlisp-D вместо оболочки Star.
Сама же Star стала эволюционным продолжением Smalltalk, обросшей множеством новых функций (к примеру, всем хорошо знакомый рабочий стол впервые появился именно в Star). Оболочка эта была столь удачной, что вскоре Xerox 8010 Information System (единственный компьютер, оснащённым этим интерфейсом) получил неофициальное название Xerox Star.
Более поздние версии Star назывались по-иному: сначала ViewPoint, а затем GlobalView (возможно, в дело вмешался вездесущий копирайт).
Итак, что же представляла собой оболочка Star?
Star была первой во всём. Именно здесь впервые была применена система «рабочего стола» с графическими иконками, метафорическими «папками» и понятным интерфейсом. Кроме того, в состав Star входило множество действительно полезного и нужного софта.
Самым «крутым» из всего пакета ПО был текстовый процессор. Он обладал недурным (даже по сегодняшним меркам!) функционалом, поддерживая форматированный текст, разнообразные шрифты и графику, диаграммы, автофигуры и встроенные изображения, полную реализацию технологии WYSIWYG (что видим на экране, то и получаем при печати), и даже поддержку всех популярных мировых языков (благодаря поддержке какой-то очень ранней версии Unicode)! Кроме того, текстовый процессор (да, и собственно, весь компьютер) был ориентирован на работу с лазерными принтерами Xerox, и поэтому в нём было всё необходимое для печати.
Кроме текстового процессора, в состав Star входили редактор графиков, электронная таблица и даже система управления базами данных. Поистине виртуальный офис. Кроме того, все эти приложения могли взаимодействовать между собой: так, вам не составляло труда взять диаграмму и вставить её в документ, вместе с электронной таблицей. (И всё это задолго до изобретения Microsoft'ом его хвалёной технологии OLE!)
Интерфейсная оболочка Star;текстовый процессор вкупе с виртуальной клавиатурой
Пример графики; что видим, то и получаем
Английский и русский текст; графики, построенные в Star
А вот ещё несколько интересных фактов о Xerox Star:
– Xerox Star и операционная система Pilot обладали отличными сетевыми возможностями; компьютер использовал сетевой протокол XNS и мог работать в качестве файлового, почтового и принт-сервера (а энтузиасты смогли в будущем добавить и поддержку HTTP-сервера!), а также поддерживал эмуляцию терминалов TTY и 3270;
– первые версии интерфейса Star имели одну особенность – окна не могли перекрываться; это было сделано для того, чтобы более эффективно использовать гигантскую по тем временам рабочую область экрана (а вот в вышедшей в 1985 году оболочке Windows 1.0 эта особенность была воспринята как недостаток – рабочая область там была размером 320x200 пикселей, при этом пятая часть и без того малого экрана там была жёстко зарезервирована для иконок); диалоговые окна, кстати, могли перекрывать другие окна;
– когда пользователи открывали приложение или документ путём клика на иконках, окно отдалялось подальше от иконок и не загораживало их (ну почему это не реализовали в Windows?);
– в ранних версиях интерфейса Star не было такого элемента, как «Waste Basket» (корзина) – его добавили чуть позже.
К 1985 году Xerox переделала и улучшила Xerox Star и отправила на прилавки магазинов модель Xerox 6085 Professional Computer System (кодовое имя – Daybreak).
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Daybreak -Xerox 6085 Professional Computer System» Нажмите, для открытия спойлера | Press to open the spoiler «
Xerox 6085 Professional Computer System
Системные характеристики новинки стали заметно лучше, чем у Dandelion:
– более быстрый процессор Intel 80186;
– жёсткий диск ёмкостью до 80 Мбайт;
– до 3,7 Мбайт оперативной памяти;
– монохромный 17” или 19” дисплей;
– оптическая (!) двухкнопочная мышь.
Кроме всего прочего, Xerox 6085 стал первым компьютером, полностью совместимым с IBM PC. Его сердцем была плата с процессором Intel 80186, которая обеспечивала эмуляцию аж на аппаратном уровне. А ещё Xerox 6085 можно было оснастить внешним 5'' дисководом или внешним считывателем картриджей.
Xerox выпустила несколько вариаций Xerox 6085. Основная модель, Xerox 6085, получила второе название Xerox Document Center (видимо, чтобы пользователи запоминали слова, а не цифры). Вторая модификация, получившая сложное название XPIW Xerox Publishing Illustrator's Workstation, отличалась от прочих наличием в комплекте сканера. И, наконец, компьютер Xerox 1186 AI Workstation отличался от своего старшего собрата отсутствием графической оболочки и наличием Interlisp-D.
Но самым большим плюсом Xerox 6085, безусловно, стала новая оболочка ViewPoint.
Xerox ViewPoint
От своей предшественницы Star она отличалась возможностью перекрывания окон (как в Apple Lisa и Visi On), но при этом была полностью совместима со всем старым ПО.
В целом, различия между Star и ViewPoint были такими же, как между Windows 1.0 и более поздней версией 2.0.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Увы, но на этом инновации Xerox в области персональных компьютеров бесславно закончились. Последующие версии компьютеров Xerox (за номерами 6520, 6522 и 6540) представляли собой компьютеры фирмы Sun, в которых вместо ОС Solaris (а точнее, на основе её) был установлен порт ViewPoint/GlobalView. Видимо, программистам не захотелось портировать ядро ОС Pilot на машины Sun и они ограничились портированием оболочки, ставшей «родным» приложениям для Solaris.
Дальше – больше. Для эмуляции ViewPoint/GlobalView на PC специалисты Xerox спроектировали специальную карту-расширение (Xerox «Dilly», или Bounty Board), нёсшую на борту «старовский» процессор и устанавливающуюся в ПК. В принципе, такой подход позволял портировать Pilot на IBM PC целиком, но в результате была успешно перенесена лишь оболочка. Но и та запускалась (при наличии платы!) лишь под малопопулярной OS/2.
Позднее Xerox всё-таки заменила аппаратную эмуляцию на программную и обеспечила совместимость своей оболочки с Windows 3.1/95/98, но было уже поздно – пользователи привыкли к доступной без лишних движений оболочке «Окон» (пускай даже и менее удобной и функциональной).
Так почему же всё-таки компьютеры Xerox, обладавшие уникальным набором характеристик, что называется «не пошли»?
» Нажмите, для открытия спойлера | Press to open the spoiler «
Всё дело в том, что Xerox совершила страшную ошибку – запретила сторонним программистам разрабатывать ПО для Star/ViewPoint/GlobalView. Дескать, это наша разработка, и только мы будем разрабатывать для неё приложения. Модель же Xerox 6085, наделённая, казалось бы, фантастическим свойством – эмуляция IBM PC – не пошла в народ, скорей всего, по причине дороговизны (в сравнении с классическими «писюками»). Кроме того, PC-часть Xerox 6085 не поддавалась апгрейду...
Как бы то ни было, компьютеры Xerox внесли неоценимый вклад в современный облик компьютерного мира. Кто знает, стоял ли бы сейчас в каждом доме компьютер, если бы в далёких 1970-х годах прошлого века в недрах PARC не разработали Alto. А если бы даже и стояли у нас компьютеры – то был ли бы их интерфейс столь удобен?
Так что если вам вдруг захочется что-нибудь «отксерить», вспомните о заслугах Xerox перед всем компьютерным миром...
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Источник: _dgmag.in (журнал DOWNGRADE)
RomFil, 26.01.2017 - 16:58
HugoBo-SS, журнал тоже читал этот хотя меня у самого за городом постоянный личный доступ появился лет так 10 назад только,тогда ещё был дух элитаризма...
тут ты писал уже про войну браузеров , а вот тот док фильм "загрузка:подлинная история интернета" смотрел?
» Нажмите, для открытия спойлера | Press to open the spoiler «
_
https://www.youtube.co...Q3T3TwO1gVs2xN»» Нажмите, для закрытия спойлера | Press to close the spoiler «« » Нажмите, для открытия спойлера | Press to open the spoiler «
»» Нажмите, для закрытия спойлера | Press to close the spoiler ««
HugoBo-SS, 26.01.2017 - 19:50
Не смотрел. Но мне и не надо. Я это почти все пережил сам. Только если помочь вспомнить вехи
Пусть молодёжь смотрит
RomFil, 29.01.2017 - 20:08
HugoBo-SS, я вот сейчас тут почитал на /. про рекламу
slashdot.org/journal/2451333/whats-the-story-with-these-ads-on-slashdot
мне это напомнило бурление юзеров унылого ресурса в рунете по разгону когда они предложили подписку на форум либо дополнительный просмотр рекламных роликов, кстати в документалке про которую я писал выше там создатели "яха" говорили что когда они обвешали сайт рекламой в конце 90х то подумали что юзеры больше не станут заходить в их каталог, интересно что разрабатвая гипер текст всем известный англичанин из ЦЕРН был полон энтузиазма про который как раз пишут в комментариях,теперь это средство для продаж в основном, правда конечно коммерция снизила цены на компьютеры разрушив элитарность (хотя элитностью комп в отличие от дорогих "вип атрибутов" не был же в глазах общественности верно?)
HugoBo-SS, 30.01.2017 - 4:08
Цитата | Quote(RomFil @ 29.01.2017 - 20:16)
(хотя элитностью комп в отличие от дорогих "вип атрибутов" не был же в глазах общественности верно?
Общественности ( в широком смысле этого слова) глубоко наплевать на подробности сфер IT и, соответственно, сопутствующее оборудование, поскольку она её не знала и не ощущала...впрочем, не знает и сейчас
HugoBo-SS, 17.08.2017 - 14:31
25 микрочипов, потрясших мир
В разработке микрочипов, как и в жизни, мелочи иногда складываются в значительные явления. Выдумайте хитрую микросхему, создайте её из полоски кремния, и ваше маленькое создание может привести к технологической революции. Так произошло с микропроцессором Intel 8088. И с Mostek MK4096 4-килобитной DRAM. И с Texas Instruments TMS32010 цифровым процессором сигналов.
Среди множества отличных чипов, появившихся на фабриках за пятьдесят лет царствования интегральных схем, выделяется одна небольшая группа. Их схемы оказались настолько передовыми, настолько необычными, так опередили своё время, что у нас уже не осталось технологических клише для их описания. Достаточно сказать, что они дали нам технологию, сделавшую наше мимолётное и обычно скучное существование в этой вселенной сносным.
Мы подготовили список из 25 ИС, заслуживающих, по нашему мнению, почётное место на каминной полке дома, который построили Джек Килби и Роберт Нойс [изобретатели интегральной схемы – прим. перев.]. Некоторые из них превратились в долгоиграющую икону поклонения любителей чипов: к примеру, таймер Signetics 555. Другие, например, операционный усилитель Fairchild 741, стали азбучными примерами схем. Некоторые, к примеру, микроконтроллеры PIC от Microchip Technology, продавались миллиардами, и до сих пор продаются. Несколько особых чипов, таких, как флэш-память от Toshiba, создали новые рынки. А по меньшей мере один стал символом гиков в поп-культуре. Вопрос: на каком процессоре работает Бендер, алкоголик, курильщик и достойный порицания робот из «Футурамы»? Ответ: MOS Technology 6502.
Объединяет все эти чипы то, что частично и из-за них тоже инженеры редко выходят гулять на улицу.
Конечно, подобные списки довольно спорные. Кто-то может обвинить нас в капризах и в том, что мы что-то пропустили. Почему мы выбрали Intel 8088, а не первый, 4004? Где устойчивый к радиации военный процессор армейского класса RCA 1802, бывший мозгом множества космических кораблей?
Если вам требуется один итог введения, то пусть он будет таким: наш список – это то, что осталось после множества недель споров до хрипоты между автором, его доверенными источниками и несколькими редакторами IEEE Spectrum. Мы не пытались создать исчерпывающее перечисление каждого чипа, ставшего технологическим прорывом или познавшего коммерческий успех. Мы также не включали в список чипы, величайшие по сути, но настолько неизвестные, что о них помнит только пяток инженеров, их разработавших. Мы сконцентрировались на чипах, ставших уникальными, интересными, потрясающими. Мы выбирали чипы разных типов, от больших и малых компаний, созданные давно и недавно. Более всего мы подбирали ИС, повлиявшие на жизнь множества людей – чипы, ставшие частью потрясших мир гаджетов, символизировавших технологические тренды, или просто обрадовавшие людей.
К каждому чипу прилагается описание того, как он появился, почему был инновационным, даются комментарии инженеров и директоров, причастных к разработке. Эта подборка не для исторического архива, поэтому мы не выстраивали их в хронологическом порядке, или по типу, или по важности. Мы случайным образом разместили их в статье так, чтобы её было интересно читать. Ведь история, по сути, довольно неряшлива.
Signetics NE555 Timer (1971)» Нажмите, для открытия спойлера | Press to open the spoiler «
Было это летом 1970 года. Разработчик чипов Ганс Каменцинд [Hans Camenzind] наверняка многое знал про китайские рестораны, ибо его небольшой офис был зажат между двумя ресторанами в пригорода Саннивэйл, Калифорния. Каменцинд работал консультантом для компании Signetics, местной фирмы, работавшей на рынке полупроводников. Экономика летела в пропасть. Он зарабатывал менее $15 тысяч в год, а дома у него была жена и четверо детей. Ему срочно требовалось изобрести что-то стоящее.
И он справился. И изобрёл один из величайших чипов всех времён. 555 был простой ИС, способной работать в качестве таймера или осциллятора. Он станет самым продаваемым среди аналоговых полупроводниковых схем, появится в кухонной технике, игрушках, космических аппаратах и тысячах других вещей.
«А его ведь чуть не раздумали делать», – вспоминает Каменцинд, который в свои 75 продолжает разрабатывать чипы, хотя делает это уже очень далеко от любого китайского ресторана.
Идея 555-го пришла к нему во время работы над цепью фазовой синхронизации. С небольшими исправлениями схема могла работать как простой таймер. Вы приводите его в действие, и он работает определённый период времени. Звучит просто, но тогда ничего подобного не было.
Поначалу инженерный отдел Signetics отверг эту идею. Компания уже продавала компоненты, из которых клиенты могли делать таймеры. Всё могло закончиться на этом, но Каменцинд настаивал. Он пошёл на приём к Арту Фьюри, менеджеру по маркетингу компании. Фьюри идея понравилась.
Каменцинд почти год тестировал прототипы на досках для прототипирования, рисовал компоненты на бумаге и плёночных фотошаблонах Rubylith. «Всё это делалось вручную, безо всяких компьютеров», – говорит он. В итоговой схеме оказалось 23 транзистора, 16 резисторов и 2 диода.
Выйдя на рынок в 1971 году, чип 555 стал сенсацией. В 1975-м Signetics поглотила Philips Semiconductors, ныне известная, как NXP, утверждающая, что продажи исчислялись миллиардами. Инженеры до сих пор используют 555 для создания полезных электронных модулей, а также таких менее полезных штук, как подсветка радиаторных решёток автомобилей в стиле "Рыцаря дорог".
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Texas Instruments TMC0281 Speech Synthesizer (1978)» Нажмите, для открытия спойлера | Press to open the spoiler «
Если бы не TMC0281, E.T. никогда не смог бы «позвонить домой». Это потому, что TMC0281, первый синтезатор речи на одном чипе, был сердцем (или, наверное, ртом?) обучающей игрушки Speak & Spell от Texas Instruments. В фильме Стивена Спилберга плоскоголовый пришелец использует её для постройки межпланетного коммуникатора (если быть точным, кроме этого он использует вешалку, банку из-под кофе и циркулярку).
TMC0281 синтезировал голос при помощи кодирования с линейным предсказанием. Звук получался из смеси жужжания, шипения и щелчков. Это было неожиданным решением задачи, которую, как считалось, «невозможно решить при помощи ИС», – говорит Джин Франц, один из четырёх инженеров, разработавших игрушку, и всё ещё работающий в TI. Варианты этого чипа использовались в аркадных играх Atari и автомобилей от Chrysler на платформе К. В 2001 году TI продала линию чипов-синтезаторов речи Sensory, которая прекратила их выпуск в 2007-м. Но если вам когда-нибудь понадобится совершить телефонный звонок на очень-очень дальнее расстояние, вы сможете найти игрушки Speak & Spell в прекрасном состоянии на eBay по $50.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« MOS Technology 6502 Microprocessor (1975» Нажмите, для открытия спойлера | Press to open the spoiler «
Когда пухлощёкий гик внедрил этот чип в компьютер и загрузил его, у Вселенной на мгновение замерло сердце. Этим гиком был Стив Возняк, компьютером – Apple I, а чипом – 6502, 8-битный микропроцессор, разработанный в MOS Technology. Чип стал основным мозгом невероятно плодотворных компьютеров типа Apple II, Commodore PET, BBC Micro, не говоря уже об игровых системах вроде Nintendo и Atari. Чак Педл, один из создателей чипа, вспоминает, как они представили свой 6502 на торговой выставке в 1975 году. «У нас было два стеклянных графина чипов, – говорит он, – и моя жена сидела и продавала их». Покупателей была целая толпа. Причина в том, что 6502 был не просто быстрее конкурентов, но и гораздо дешевле. Он стоил $25, когда Intel 8080 и Motorola 6800 стоили по $200.
Прорывом, как говорит Билл Менщ, создавший 6502 совместно с Педдлом, стал минимальный набор инструкций и новый процесс производства, «выдававший в 10 раз больше пригодных чипов, чем у конкурентов». 6502 почти в одиночку заставил упасть стоимость процессоров, что помогло начать революцию персональных компьютеров. Некоторые встроенные системы до сих пор его используют. Интересно, что 6502 также служит электронным мозгом Бендера, робота из «Футурамы», что следует из эпизода от 1999 года.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Texas Instruments TMS32010 Digital Signal Processor (1983)» Нажмите, для открытия спойлера | Press to open the spoiler «
Большой штат Техас известен множеством больших вещей, таких, как ковбойская шляпа, стейк по-деревенски, Dr Pepper, и TMS32010, цифровой процессор сигналов. Это был не первый DSP (первым был DSP-1 от Western Electric, появившийся в 1980-м), но это был самый быстрый из них. Он мог произвести умножение за 200 нс – такое его свойство вызывало у инженеров приятное ощущение во всём теле. Более того, он мог исполнять инструкции как с ROM на чипе, так и с внешней RAM, в то время, как у конкурентов таких возможностей не было. «Это сделало разработку программ для TMS32010 гибкой, точно такой же, как для микроконтроллеров и микропроцессоров», – говорит Ванда Гасс, член команды разработчиков DSP, всё ещё работающая в TI. Чип стоил $500 и за первый год было продано 1000 штук. Постепенно продажи росли, и DSP стал частью модемов, медицинских устройств и военных системы. Да, и ещё одно применение – криповатая кукла в стиле Чаки, Worlds of Wonder’s Julie, которая могла говорить и петь. Чип стал первым из большой семьи DSP, заработавшим TI целое состояние.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Microchip Technology PIC 16C84 Microcontroller (1993)» Нажмите, для открытия спойлера | Press to open the spoiler «
В начале 1990-х огромная вселенная 8-битных микроконтроллеров принадлежала одной компании, всемогущей Motorola. А затем появился небольшой конкурент с непримечательным именем Microchip Technology. Он разработал PIC 16C84, куда входила и память под названием EEPROM — электрически стираемое перепрограммируемое ПЗУ. Ему не нужен был ультрафиолет для стирания, как он нужен был его предшественнику, EPROM. «После этого пользователи могли изменять свой код на лету», – говорит Род Дрейк, главный разработчик чипов, сейчас работающий директором в Microchip. Что ещё приятнее, чип стоил $5, в четыре раза дешевле альтернатив, большинство из которых делала Motorola. 16C84 нашёл применение в умных карточках, пультах управления и беспроводных ключах для автомобилей. Это было начало линии микроконтроллеров, ставших электронными суперзвёздами как для компаний из списка Fortune 500, так и для любителей что-нибудь спаять у себя дома. Было продано 6 млрд копий чипа, использовавшегося в индустриальных контроллерах, беспилотных летательных аппаратах, цифровых тестах на беременность, чипованых фейерверках, украшениях со светодиодами, и датчиках заполнения септик-тэнков под названием Turd Alert [какашечная тревога].
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Fairchild Semiconductor μA741 Op-Amp (1968)» Нажмите, для открытия спойлера | Press to open the spoiler «
Операционный усилитель – это нарезанный хлеб аналоговой разработки. Вам всегда пригодится пара штучек, а ещё их можно объединить с чем угодно и получить что-нибудь съедобное. Разработчики с их помощью делают предусилители аудио и видео, компараторы напряжения, точные выпрямители и многие другие системы, включённые в повседневную электронику.
В 1963 году 26-летний инженер Роберт Уидлар разработал первый монолитный операционный усилитель на интегральной схеме, μA702, для Fairchild Semiconductor. Продавали их по $300. Затем Уидлар выдал улучшенную схему, μA709, уменьшив стоимость до $70 и приведя чип к огромному коммерческому успеху. Говорят, что бесшабашный Уидлар попросил после этого прибавку, а когда не получил её, уволился. Компания National Semiconductor с большим удовольствием наняла товарища, который в то время помогал устанавливать дисциплину аналогового дизайна ИС. В 1967 году Уидлар снова улучшил операционный усилитель, сделав LM101.
А пока менеджеры Fairchild волновались по поводу внезапно возникшей конкуренции, в их лаборатории недавно нанятый Дэвид Фуллагар внимательно изучал LM101. Он понял, что у чипа, пусть и гениально созданного, была парочка недостатков. Во избежание частотных искажений инженерам пришлось приделать к нему внешний конденсатор. Кроме того, входная часть ИС, т.н. фронт-энд, у некоторых чипов был слишком чувствителен к шуму из-за непостоянного качества изготовления полупроводников.
«Фронт-энд выглядел сделанным наспех», – говорит он.
Фуллагар занялся собственной разработкой. Он расширил ограничения полупроводникового производства, внедрив в чип конденсатор на 30 пФ. А как же улучшить фронт-энд? Решение было простым: «меня просто вдруг озарило, когда я вёл машину» – и состояло из парочки дополнительных транзисторов. Они сделали усилитель более плавным, а качество производства – более постоянным.
Фуллагар отнёс свою разработку главе лаборатории по имени Гордон Мур, а он отправил её в коммерческий отдел компании. Новый чип μA741 стал стандартом среди операционных усилителей. Эту ИС и созданные конкурентами Fairchild варианты продавали сотнями миллионов. Сейчас на $300, которые просили за его предшественника 702, можно купить тысячу 741-х чипов.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Intersil ICL8038 Waveform Generator (около 1983)» Нажмите, для открытия спойлера | Press to open the spoiler «
Критики насмехались над ограниченной производительностью ICL8038 и его склонностью к нестабильному поведению. Этот чип, генератор синусоидальных, прямоугольных, треугольных, и прочих волн, действительно вёл себя несколько капризно. Но инженеры вскоре научились надёжно его использовать, и 8038 стал хитом, который в результате продавали сотнями миллионов, нашедшим бесчисленное количество применений – например, синтезаторы Муга и «синие коробочки», которыми фрикеры пользовались для взлома телефонных компаний в 1980-х. Компонент был настолько популярным, что компания выпустила документ под названием «Всё, что вы всегда хотели узнать об ICL8038». Пример вопроса оттуда: «Почему после соединения 7 и 8 контактов ИС лучше всего работает в условиях изменения температуры?» Intersil прекратили выпуск 8038 в 2002 году, но любители до сих пор разыскивают их и делают домашние функциональные преобразователи и терменвоксы.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Western Digital WD1402A UART (1971)» Нажмите, для открытия спойлера | Press to open the spoiler «
Гордон Белл известен серией миникомпьютеров PDP, запущенной в 1960-х в Digital Equipment Corp. Он также изобрёл менее известный, но не менее важный чип: универсальный асинхронный приёмник/передатчик, UART. Беллу нужны были схемы для соединения Teletype и PDP-1, а для этого требовалось преобразование параллельных сигналов в последовательные, и наоборот. В его реализацию входило 50 отдельных компонентов. Western Digital, небольшая компания, производившая чипы для калькуляторов, предложила сделать UART на одном чипе. Основатель компании, Эл Филлипс, до сих пор вспоминает, как его вице-президент по разработке показал ему листы плёнки со схемой, готовые к производству. «Я поглядел на них с минуту и обнаружил незамкнутый контур, – говорит Филлипс. – У вице-президента случилась истерика». Western Digital представила WD1402A примерно в 1971, и вскоре за ним последовали другие варианты. Сейчас UART широко используются в модемах, компьютерной периферии и другом оборудовании.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Acorn Computers ARM1 Processor (1985)» Нажмите, для открытия спойлера | Press to open the spoiler «
В начале 1980-х Acorn Computers была мелкой компанией с крупным продуктом. Расположенная в Кембридже, в Англии, фирма продала более 1,5 млн микро-десктопов BBC. Пришло время разработать новую модель, и инженеры решили самостоятельно сделать 32-битный микропроцессор. Они назвали его Acorn RISC Machine, или ARM. Инженеры знали, что задача будет нелёгкой. Они были почти готовы к тому, что непреодолимые проблемы заставят их отказаться от проекта. «Команда была настолько маленькой, что каждое решение приходилось применять, отдавая приоритет простоте – или мы никогда его не закончим!» – говорит один из разработчиков Стив Фёрбер, сейчас профессор в Манчестерском университете. В итоге простота и стала главной особенностью продукта. ARM был небольшим, потреблял мало, программировать для него было легко. Софи Уилсон, разработавшая набор инструкций, всё ещё помнит, как они впервые проверяли чип на компьютере. «Мы написали ‘PRINT PI’, и он выдал правильный ответ, – говорит она. – Мы открыли шампанское». В 1990-м Acorn выделила ARM в отдельное подразделение, и архитектура стала доминировать в области встроенных 32-битных процессоров. Более 10 млрд ядер ARM было использовано во всяких гаджетах, включая один из самых позорных провалов Apple, наладонник Newton, и один из самых оглушительных её успехов, iPhone.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Kodak KAF-1300 Image Sensor (1986)» Нажмите, для открытия спойлера | Press to open the spoiler «
Цифровая камера Kodak DCS 100, появившаяся в 1991-м, стоила $13000 и требовала внешних блоков памяти весом 5 кг, которые пользователи должны были носить на плече. Но всё же, в электронике камеры, расположенной в корпусе Nikon F3, был один впечатляющий компонент: чип размером с ноготь, способный делать фотографии с разрешением в 1,3 мегапикселя, что позволяло делать фотографии приемлемого качества размером 7«x5». «В то время 1 мегапиксель был волшебным числом», – говорит Эрик Стивенс, главный разработчик чипа, всё ещё работающий в Kodak. Этот чип – настоящий двухфазный прибор с зарядовой связью – стал основой будущих сенсоров CCD, дав старт революции цифровой фотографии. Какой была самая первая фотография, сделанная при помощи KAF-1300? «Эмм, – говорит Стивенс, – да мы просто направили сенсор на стену лаборатории».
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« IBM Deep Blue 2 Chess Chip (1997)» Нажмите, для открытия спойлера | Press to open the spoiler «
С одной стороны доски – полтора кило серого вещества. С другой – 480 шахматных чипов. Люди в итоге проиграли компьютерам в 1997, когда играющий в шахматы компьютер от IBM Deep Blue победил тогдашнего чемпиона мира, Гарри Каспарова. Каждый из чипов Deep Blue состоял из 1,5 млн транзисторов, расположенных в логическом массиве, просчитывавшем ходы – а также из RAM и ROM. Все вместе чипы могли обрабатывать по 200 млн шахматных позиций в секунду. Эта грубая сила, скомбинированная с хитрыми функциями оценки игры, и выдавала ходы, названные Каспаровым «некомпьютерными». «Они оказывали серьёзное психологическое давление», – вспоминает главный автор Deep Blue, Фэн Сюн Сю, работающий сегодня в Microsoft.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Transmeta Corp. Crusoe Processor (2000)» Нажмите, для открытия спойлера | Press to open the spoiler «
Большие возможности подразумевают большие радиаторы. И мало живущую батарейку. И безумное энергопотребление. Поэтому целью Transmeta была разработка процессора с низким потреблением энергии, обставившего бы прожорливые аналоги от Intel и AMD. По плану, ПО должно переводить инструкции x86 на лету в машинный код Crusoe, а его эффективный параллелизм экономил бы время и энергию. Его рекламировали, как величайшее достижение со времён создания кремниевых подложек, и одно время так и было. «Инженеры-волшебники вызвали золото процессоров» – так было написано на обложке IEEE Spectrum от мая 2000 года. Crusoe и его преемник, Efficeon, «доказали, что динамическая двоичная трансляция может быть коммерчески успешной», – говорит Дэвид Дитцель, сооснователь Transmeta, сегодня работающий в Intel. К сожалению, добавляет он, чипы появились за несколько лет до активного развития рынка компьютеров с малым энергопотреблением. И, хотя Transmeta не выполнила своих обещаний, при помощи лицензий и судебных исков она заставила Intel и AMD охладить их пыл.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Texas Instruments Digital Micromirror Device (1987)» Нажмите, для открытия спойлера | Press to open the spoiler «
18 июня 1999 Ларри Хорнбек повёл свою жену Лору на свидание. Они пошли смотреть «Звёздные войны, эпизод 1» в кинотеатре Бёрбанка, Калифорния. Седеющий инженер не был ярым фанатом джедаев. Они пошли туда из-за проектора. В нём использовался чип – цифровое микрозеркальное устройство – изобретённое Хорнбеком для Texas Instruments. Чип использует миллионы поворотных микроскопических зеркал, чтобы направлять свет через линзу проектора. Этот просмотр был «первой цифровой демонстрацией крупной кинокартины», – говорит Хорнбек. Сегодня кинопроекторы использующие технологию DLP работают в тысячах кинотеатров. Они также используются в проекторных телевизорах, офисных проекторах и крохотных проекторах сотовых телефонов. «Перефразируя Гудини, – говорит Хорнбек, – микрозеркала, джентльмены. Эффект создаётся при помощи микрозеркал».
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Intel 8088 Microprocessor (1979)» Нажмите, для открытия спойлера | Press to open the spoiler «
Был ли какой-то единственный чип, затащивший Intel в список Fortune 500? Компания говорит, что был: 8088. Это был 16-битный ЦП, который IBM выбрала для своей первоначальной линейки ПК, пришедшей к доминированию на рынке настольных компьютеров.
По странной превратности судьбы, название чипа, ставшего известным поддержкой архитектуры x86, не оканчивалось на «86». 8088-й был небольшой переделкой 8086-го, первого 16-битного чипа Intel. Или, как сказал инженер Intel Стивен Морс, 8088 был «кастрированной версией 8086». Это потому, что основной инновацией нового чипа был не шаг вперёд: 8088 обрабатывал данные 16-битными словами, используя при этом 8-битную внешнюю шину данных.
Менеджеры Intel не раскрывали детали проекта 8088 до тех пор, пока дизайн 8086 не был почти закончен. «Управление не хотело задерживать 8086 даже на день, сообщая нам, что раздумывают над 8088», – говорит Питер Столл, ведущий инженер проекта 8086, работавший немного и над 8088.
Только после появления первого рабочего 8086 Intel передала чертежи и документацию в отдел разработки в Хайфе, Израиль, где два инженера, Рафи Реттер и Дэни Стар, изменили чип для работы на 8-битной шине.
Такая модификация оказалось одним из лучших решений компании. ЦП 8088 с 29000 транзисторов требовало меньшее количество вспомогательных чипов, которые могли быть дешевле, и «был полностью совместим с 8-битным железом, а также работал быстрее и помогал организации плавного перехода на 16-битные процессоры», как писали Роберт Нойс и Тэд Хофф из Intel в статье для журнала IEEE Micro magazine в 1981 году.
Первым ПК, использовавшим 8088, стал IBM Model 5150, монохромный компьютер стоимостью в $3000. Сейчас почти все ПК в мире построены на ЦП, предком которых является 8088. Неплохо для кастрированного чипа.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Micronas Semiconductor MAS3507 MP3 Decoder (1997)» Нажмите, для открытия спойлера | Press to open the spoiler «
До iPod был ещё Diamond Rio PMP300. Вряд ли вы его вспомните. Он появился в 1998 и сразу стал хитом, но затем шумиха утихла быстрее, чем Milli Vanilli. Но одной интересной особенностью плеера было то, что он работал на MP3-декодере MAS3507 – цифровом процессоре сигналов RISC, с набором инструкций, оптимизированным для сжатия и распаковки данных. Чип, разработанный Micronas, позволял Rio запихнуть чуть больше десятка песен во флэш-память – сегодня это смешно, но в то время он мог соревноваться с портативными CD-проигрывателями. Как очаровательно старомодно, не правда ли? Rio и последователи проложили дорогу для iPod, а теперь вы можете носить с собой в кармане тысячи песен – и все альбомы и клипы Milli Vanilli.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Mostek MK4096 4-Kilobit DRAM (1973)» Нажмите, для открытия спойлера | Press to open the spoiler «
Mostek не был первым DRAM. Но её 4-килобитный DRAM содержал ключевую инновацию – трюк с уплотнением адресов, придуманный сооснователем компании Бобом Пробстингом. По сути, чип использовал те же самые контакты для доступа к столбцам и строкам памяти, уплотняя адресные сигналы. В результате с увеличением объёма памяти чипу не нужно было увеличивать количество контактов, и его можно было сделать дешевле. Оставалась только небольшая проблема с совместимостью. 4096 использовал 16 контактов, а память, изготовляемая Texas Instruments, Intel и Motorola, работала с 22 контактами. В результате произошла одна из самых эпических конфронтаций в истории DRAM. Mostek, поставив своё будущее на этот чип, пыталась обратить в свою веру пользователей, партнёров, прессу и даже своих сотрудников. Фред Бехузен, который, как недавно пришедший в компанию сотрудник, должен был протестировать устройства 4096, вспоминает, как Пробстинг и генеральный директор Севин пришли к нему в его ночное дежурство и провели небольшую конференцию – в 2 часа ночи. «Они смело предсказывали, что через шесть месяцев никому не будет никакого дела до 22-контактной DRAM», – говорит Бехузен. Они были правы. 4096 и его последователи на годы стали основным трендом на рынке DRAM.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Xilinx XC2064 FPGA (1985)» Нажмите, для открытия спойлера | Press to open the spoiler «
В начале 1980-х разработчики чипов пытались выжать всё возможное из каждого транзистора в схеме. Но затем у Росса Фримена родилась радикальная идея. Он придумал чип, забитый транзисторами, формировавшими не очень строго организованные логические блоки, которые можно было настраивать при помощи софта. Иногда группу транзисторов можно было и не использовать – вот ересь! – но Фриман считал, что закон Мура в итоге сделает транзисторы очень дешёвыми. Так и вышло. Для вывода на рынок чипа, названного программируемая пользователем вентильная матрица FPGA, Фриман стал сооснователем Xilinx. (Странная концепция для компании со странным именем). Когда её первый продукт вышел в 1985 году, сотрудникам дали задание: им нужно было нарисовать вручную пример схемы, использующей логические блоки XC2064, как это сделали бы клиенты компании. Билл Картер, бывший технический директор, вспоминает, как к нему подошёл генеральный директор Берни Вондершмитт, с жалобой на то, что ему «немного не удаётся домашнее задание». Картер с радостью помог боссу. «И вот мы, вооружившись бумагой и цветными карандашами, работали над заданием Берни!» Сегодня FPGA-чипы, продаваемые Xilinx и другими компаниями, используются в таком огромном списке вещей, что его здесь тяжело будет приводить. Вот такая получилась конфигурация!
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Zilog Z80 Microprocessor (1976)» Нажмите, для открытия спойлера | Press to open the spoiler «
Федериго Фаггин хорошо знал, сколько средств и человеко-часов необходимо потратить на вывод микропроцессора на рынок. Работая в Intel, он участвовал в разработке двух плодотворных представителей этого рода: самого первого, 4004, и 8080 из рода Altair. Основав совместно с бывшим коллегой из Intel, Ральфом Унгерманом, компанию Zilog, они решили начать с чего-то попроще: микроконтроллера на одном чипе.
Фаггин и Ангерман сняли офис в пригороде Лос-Альтоса в Калифорнии, накидали бизнес-план и отправились на поиски венчурного капитала. Обедали они в ближайшем супермаркете Safeway – «Сыр камамбер и крекеры», как он вспоминает.
Но вскоре инженеры поняли, что рынок микроконтроллеров и так наводнён очень хорошими чипами. Даже если бы их чип был лучше других, они получили бы очнь небольшую прибыль, и продолжали бы питаться сыром с крекерами. Zilog необходимо было взять прицел повыше в пищевой цепочке – так и родился проект микропроцессора Z80.
Их целью было обойти по производительности 8080 и предложить полную совместимость для программ для 8080, чтобы увести пользователей от Intel. Месяцами Фаггин, Унгерман и Масатоши Шима, ещё один бывший инженер из Intel, работали по 80 часов в неделю, сгорбившись над столами и рисуя схемы Z80. Фаггин вскоре понял, что хоть небольшой размер и может быть красивым ["малое – это красиво" – собрание эссе популярного экономиста Е. Ф. Шумахера / прим. перев.], но глаза от него сильно устают.
«К концу работы мне пришлось купить очки, – говорит он. – Я стал близоруким».
Команда пахала весь 1975 год и вошла в 1976-й. К марту у них, наконец, был прототип чипа. Z80 был современником MOS Technology’s 6502, и как и тот, выделялся не только элегантной схемой, но и низкой ценой ($25). Но чтобы начать его производить, потребовалось потратить много сил на убеждения. «Просто время было насыщенное», – говорит Фаггин, заработавший себе ещё и язву [по современным представлениям, язва – заболевание инфекционное, а не нервное / прим. перев.].
Но продажи в итоге пошли. Z80 встроили в тысячи продуктов, включая первый портативный компьютер Osborne I, домашние компьютеры Radio Shack TRS-80 и MSX, принтеры, факсы, фотокопиры, модемы и спутники. Zilog до сих пор производит Z80 из-за его популярности в некоторых встроенных системах. В базовой конфигурации сегодня он стоит $5,73 – это даже дешевле обеда из сыра и крекеров.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Sun Microsystems SPARC Processor (1987)» Нажмите, для открытия спойлера | Press to open the spoiler «
Давным-давно, в начале 1980-х, люди носили тёплые гетры неоновых цветов и смотрели "Даллас" [мыльная опера из 13 сезонов про коварного нефтяного магната / прим. перев.], а разработчики микропроцессоров пытались увеличить сложность инструкций ЦП, чтобы за один цикл вычислений можно было выполнять больше действий. Но затем группа из Калифорнийского университета в Беркли, известного своими пристрастиями к контркультуре, предложила противоположный выход: упростите набор инструкций, и обрабатывайте их так быстро, что в результате компенсируете то, что за один цикл выполняется меньше. Группа из Беркли, которую вёл Дэвид Паттерсон, назвала этот подход RISC — reduced instruction set computer [компьютер с сокращённым набором команд].
С академической точки зрения идея RISC была неплохой. Но продастся ли она? На это поставила Sun Microsystems. В 1984 году небольшая команда инженеров Sun начала разработку 32-битного RISC-процессора SPARC (Scalable Processor Architecture, масштабируемая архитектура процессора). Они хотели использовать этот чип в новой линейке рабочих станций. Однажды Скотт Макнили, директор Sun, появился в лаборатории разработки SPARC. «Он сказал, что SPARC превратит Sun из компании с выручкой в $500 млн в год в компанию с выручкой в миллиард в год», – вспоминает Паттерсон, консультант проекта SPARC.
И если этого было недостаточно, то многие эксперты сомневались, что у компании получится завершить этот проект. Что ещё хуже, у команды маркетинга случилось неприятное озарение: SPARC наоборот будет CRAPS! [азартная игра в кости, или дерьмо во множественном числе – прим. перев.] Членам команды пришлось поклясться, что они не проронят ни звука об этом даже среди сотрудников компании – не говоря уж о том, чтобы эти слухи дошли до их главного конкурента MIPS Technologies, также изучавшего концепцию RISC.
Первая версия минималистического SPARC состояла из «процессора-матрицы на 20000 вентилей, у которого даже не было инструкций для целочисленного умножения и деления», – говорит Роберт Гарнер, ведущий архитектор SPARC, сегодня работающий в IBM. Но при скорости в 10 млн инструкций в секунду он работал в три раза быстрее, чем процессоры с набором сложных инструкций (CISC) того времени.
Sun будет использовать SPARC для работы в прибыльных рабочих станциях и серверах много лет. Первым продуктом на базе SPARC, появившимся в 1987 году, была линейка рабочих станций Sun-4, которая быстро захватила рынок и помогла раскрутить выручку компании за миллиардный рубеж – как и предсказывал Макили.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Tripath Technology TA2020 AudioAmplifier (1998)» Нажмите, для открытия спойлера | Press to open the spoiler «
Существует подмножество аудиофилов, настаивающих на том, что ламповые усилители дают наилучший звук, и это будет всегда. Так что когда кто-то из аудиосообщества заявил, что полупроводниковый усилитель класса D, придуманный компанией из Кремниевой долины Tripath Technology, даёт такой же тёплый и живой звук, как ламповые усилители, это было серьёзным заявлением. Трюк состоял в том, чтобы использовать 50 МГц систему сэмплирования для работы усилителя. Компания похвалялась, что их TA2020 работает лучше и стоит гораздо меньше, чем любой сравными полупроводниковый усилитель. Для демонстрации его работы на выставках «мы проигрывали эту очень романтичную песню из „Титаника“, – говорит Адья Трипати, основатель Tripath. Как и большинство усилителей класса D, 2020 был очень энергетически эффективным; ему не требовался радиатор и он мог уместиться в компактном корпусе. Менее качественная, 15 Вт версия TA2020 продавалась в США по $3 и использовалась в бум-боксах и мини магнитофонах. Другие версии – самой мощной из которых была версия с выходной мощностью в 1000 Вт – использовалась в домашних кинотеатрах, аудиосистемах высшего класса и телевизорах от Sony, Sharp, Toshiba и других. В итоге большие компании-производители полупроводниковых устройств вошли на этот рынок, создали похожие чипы и отправили Tripath в небытие. Но их чипы стали предметом поклонения. Наборы с усилителями и основанные на TA2020 продукты всё ещё продаются в таких компаниях, как 41 Hz Audio, Sure Electronics и Winsome Labs.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Amati Communications Overture ADSL Chip Set (1994)» Нажмите, для открытия спойлера | Press to open the spoiler «
Помните, когда вышли DSL-модемы, и вы выкинули тот жалкий модем на 56,6 кбит/с в мусор? Вам, и двум третям всех использующих DSL-технологию людей стоит сказать „спасибо“ Amati Communications, стартапу из Стэнфордского университета. В начале 1990-х они придумали DSL-модуляцию под названием дискретная мультитональная модуляция, DMT. По сути, она позволяет превратить одну телефонную линию в сотни каналов и улучшить передачу данных методом, обратным схеме работы Робина Гуда. „Биты крадут у самых бедных каналов и отдают самым богатым“, – говорит Джон Кьоффи, сооснователь Amati, сейчас – профессор в Стэнфорде. DMT победила конкурентов – включая и предложения от гиганта AT&T – и стала глобальным стандартом для DSL. В середине 1990-х набор микросхем для DSL от Amati, одна аналоговая и две цифровых, продавались не очень активно, но к 2000 объёмы продаж выросли до миллионов. В начале 2000-х продаже превысили 100 млн чипов в год. Texas Instruments купила Amati в 1997.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Motorola MC68000 Microprocessor (1979)» Нажмите, для открытия спойлера | Press to open the spoiler «
Motorola опоздала на вечеринку 16-битных процессоров, поэтому решила появиться стильно. Гибридный 16-bit/32-bit MC68000 содержал 68 000 транзисторов, более чем в два раза больше, чем в Intel 8086. У него были внутренние 32-битные регистры, но 32-битная шина сделала бы его слишком дорогим, поэтому 68000-й использовал 24-битную адресацию и 16-битные каналы данных. Это, вероятно, был последний из крупных процессоров, разработанных вручную при помощи карандаша и бумаги. „Я передавал уменьшенные копии чертежей блок-схем, ресурсов исполнительных блоков, декодеров и контрольной логики другим членам проекта“, – говорит Ник Треденик, разрабатывавший логину 68000-го. Копии были мелкие и их было трудно читать, и в итоге его коллеги с усталыми глазами доходчиво сообщили ему об этом. „Однажды я пришёл в офис, и обнаружил на столе копию моих блок-схем размером с кредитку“, – вспоминает Треденик. 68000-й появился во всех ранних макинтошах, а также в Amiga и Atari ST. Серьёзные продажи пошли благодаря встраиванию чипа в лазерные принтеры, аркадные автоматы и индустриальные контроллеры. 68000-й стал также одним из величайших промахов, почти попавших в цель, в одном ряду с Питом Бестом, ушедшим с поста ударника в Beatles. IBM хотела использовать чип в своей линейке ПК, но вместо этого остановилась на Intel 8080, потому что, кроме прочего, 68000 был относительно редким. Как позже заметил один наблюдатель, если бы победила Motorola, то дуополия Windows-Intel, которую называют Wintel, могли бы называть Winola.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Chips & Technologies AT Chip Set (1985)» Нажмите, для открытия спойлера | Press to open the spoiler «
К 1984 году, когда IBM представила линейку ПК на базе 80286 AT, компания уже становилась явным лидером в мире настольных компьютеров, и собиралась доминировать там и дальше. Но планы Голубого Гиганта расстроила крохотная фирмочка Chips & Technologies из Сан-Хосе. C&T разработала пять чипов, дублировавших функциональность материнской платы AT, использовавшей 100 чипов. Чтобы убедиться, что набор чипов был совместим с IBM PC, инженеры C&T поняли, что у них есть только один выход. „У нас была мучительная, но, конечно, развлекательная задача – неделями играть в игры“, – говорит Рави Бхатнагар, ведущий дизайнер набора чипов, сейчас – вице-президент Altierre Corp. Чипы C&T позволили таким производителям, как тайваньский Acer делать более дешёвые ПК и запустить вторжение клонов PC. Intel купила C&T в 1997-м.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Computer Cowboys Sh-Boom Processor (1988)» Нажмите, для открытия спойлера | Press to open the spoiler «
Два разработчика чипов заходят в бар. Это Рассел Фиш III и Чак Мур, а бар называется „Ш-бум“. И это не начало анекдота – это реальная часть технологической истории, заполненной разногласиями и судебными разборками, множеством судебных разборок. Всё началось в 1988-м, когда Фиш и Мур создали странный процессор под названием Sh-Boom. Чип был так хорошо отлажен, что мог работать быстрее тактовой частоты в схеме, управлявшей работой остального компьютера. Поэтому два разработчика нашли способ сделать так, чтобы процессор работал по своим сверхбыстрым внутренним часам, и при этом оставался синхронизированным с остальными частями компьютера. Sh-Boom не был коммерчески успешным, и после патентования инноваций, Фиш и Мур занялись чем-то другим. Позже Фиш продал свои патентные права фирме Patriot Scientific из Калифорнии, остававшейся крохотной фирмочкой без прибыли, пока её директорам не сошло откровение: за годы, прошедшие с изобретения Sh-BoomЮ скорость процессоров намного превзошла скорость материнских плат, поэтому практически каждый производитель компьютеров и потребительской электроники просто обязан будет использовать решение, похожее на запатентованную Фишем и Муром инновацию. Опачки! Patriot подала целый вагон судебных исков против американских и японских компаний. Зависела ли работа чипов этих компаний от идей, использованных в Sh-Boom, было спорным вопросом. Но с 2006-го года Patriot и Мур поимели более $125 миллионов лицензионных отчислений от Intel, AMD, Sony, Olympus и других. А что до названия Sh-Boom, то Мур, сегодня работающий в IntellaSys, говорит: „Оно якобы произошло от названия бара, где мы с Фишем пили бурбон и чертили на салфетках. На самом деле всё не совсем так, но предложенное им название мне понравилось“.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Toshiba NAND Flash Memory (1989)» Нажмите, для открытия спойлера | Press to open the spoiler «
Сага изобретения флэш-памяти началась, когда управляющий фабрикой Toshiba по имени Фуджио Масуока решил переизобрести полупроводниковую память. Но сначала – немного истории.
До появления флэш-памяти единственным способом хранения того, что в то время считалось большими объёмами памяти, были магнитные ленты, флоппи-диски и жёсткие диски. Многие компании пытались создавать полупроводниковые альтернативы, но доступные варианты, такие как EPROM, требовавший ультрафиолета для стирания данных, и EEPROM, работавший без ультрафиолета, были экономически невыгодны.
Входит Масуока-сан из Toshiba. В 1980-м он нанял четырёх инженеров для работы над полусекретным проектом разработки чипа памяти, способного хранить большой объём данных за небольшие деньги. Их стратегия была простой. „Мы знали, что стоимость чипа будет падать, пока размер транзисторов будет уменьшаться“, – говорит Масуока, сейчас работающий техническим директором в Unisantis Electronics в Токио.
Команда Масуока придумала вариант EEPROM, в котором ячейка памяти состояла из одного транзистора. В то время обычным EEPROM требовалось по два транзистора на ячейку. Казалось бы, разница была небольшой, но на стоимость она повлияла сильно.
В поисках запоминающегося имени они остановились на „флэш“, из-за очень большой скорости стирания. Но если вы думаете, что после этого Toshiba бросилась внедрять память в производство и наблюдать, как им капают денежки – вы не знаете, как обычно крупные корпорации относятся с внутренними идеями. Оказывается, что боссы Масуока повелели ему, в общем-то, стереть эту идею.
Он, естественно, не стал этого делать. В 1984 году он представил работу по разработке памяти на конференции IEEE International Electron Devices Meeting. Это побудило Intel к разработке типа флэш-памяти на основе логических вентилей NOR. В 1988 компания представила чип на 256 кбит, нашедший применение в транспорте, компьютерах и других распространённых устройствах, что открыло для Intel неплохую нишу.
Этого хватило, чтобы Toshiba, наконец, решила выводить на рынок изобретение Масуока. Его флэш-чип был основан на технологии NAND, с большой плотностью записи, но сложный в производстве. Успех пришёл в 1989 году, когда первая NAND flash появилась на рынке. Как и предсказывал Масуока, цены продолжали падать.
В конце 1990-х популярности флэш способствовала цифровая фотография, и Toshiba стала одним из крупнейших игроков на многомиллиардном рынке. В то самое время отношения Масуока с другими директорами испортились, и он покинул компанию. Позднее он подал в суд иск с требованием отстегнуть ему часть прибыли, и выиграл.
Теперь NAND flash – ключевой компонент любого гаджета: сотовых телефонов, камер, плееров, и, конечно, USB-флэшек, которые технари так любят носить на шее. „Моя была на 4 гигабайта“, – говорит Масуока.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Источник: geektimes
HugoBo-SS, 20.08.2017 - 21:35
История GeoWorks, выскочки и конкурента Microsoft Windows из 90-х
В начале 90-х ещё не было гарантий того, что Microsoft Windows завладеет рынком, хотя благодаря MS-DOS у них было явное преимущество перед многими конкурентами.
Один из культовых в то время графических интерфейсов от AOL некоторое время старался не класть все яйца в одну корзину, и поддерживал DOS-версию своего псевдо-интернетовского софта при помощи GUI –платформы, с которой мало кто был знаком: GeoWorks.
Это была операционная система из той эпохи, когда модем не казался чем-то обязательным. Она была до смешного легковесной, благодаря своему предку GEOS (Graphical Environment Operating System [Операционная система с графическим окружением]), операционной системе для Commodore 64.
Commodore 64 + GEOS
Платформу сделала компания Berkeley Softworks (не путать с Berkeley Systems, авторами знаменитой заставки "летающие тостеры"
). Некоторое время её продукт был одной из самых популярных программ для Commodore 64 благодаря его функциональности и возможности работать на недорогом оборудовании.
«GEOS не стала первой системой с графическим интерфейсом. Большая часть её возможностей уже была в более крупных ОС тех дней, например, у классического Mac (хотя и не у Windows)», – писал Крок Кэмен для OS News в 2006 году. «Чем GEOS могла похвастаться, так это работой офисных приложений на дешёвом и маломощном железе. Вам не нужен был компьютер стоимостью $2000, чтобы написать и распечатать простое письмо».
Эта ОС в итоге переползла на ПК в начале 90-х в своём более продвинутом виде, и Berkeley Softworks поменяла название на GeoWorks.
Благодаря одному моему другу детства, который позволял мне поиграться с его Commodore 64, у меня был небольшой соответствующий опыт. А версию GeoWorks для PC я использовал, потому что она поставлялась в комплекте с 386-м, который мне купили, когда я ещё был ребёнком.
Компьютер не был очень быстрым – у него был жёсткий диск на 40 Мб и один мегабайт памяти – в результате ему повезло, что на нём была установлена легковесная объектно-ориентированная система от GeoWorks. Операционка весила не более 10 Мб. А в эпоху, когда соединение с миром ещё не было популярным, простота формата играла значительную роль.
» Нажмите, для открытия спойлера | Press to open the spoiler «
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Среди интересных возможностей платформы можно вспомнить следующие.
Разные интерфейсы для пользователей с разным уровнем. » Нажмите, для открытия спойлера | Press to open the spoiler «
DOS не была простой ОС для новичков, и GeoWorks Ensemble пыталась сделать её более дружественной. Она предлагала два вида интерфейсов: «прикладной» и «профессиональный», с возможностью запуска оболочки для DOS-программ, так что вы без проблем могли бы поиграть в Commander Keen. Для людей, никогда ранее не имевших дела с PC, эта стратегия была идеальной – у системы были «тренировочные колёсики», как у детского велосипеда.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Встроенные офисные приложения.
» Нажмите, для открытия спойлера | Press to open the spoiler «
В программу входило множество приложений, примерно соответствовавших тому, что можно было обнаружить у других ОС – к примеру, Mac мог похвастать текстовым процессором, календарём и электронными таблицами. Также в ОС была программа для рисования заголовков Print Shop, которая могла пригодиться при наличии у вас матричного принтера. В целом предложение очень хорошо подходило для домашних пользователей, которых Microsoft в начале своей деятельности не особо замечала. Возможно, программа была не такой яркой, как Microsoft Bob, но работала гораздо лучше.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Серьёзные возможности, низкие требования.
» Нажмите, для открытия спойлера | Press to open the spoiler «
Лучшим свойством GeoWorks было то, что она работала хорошо без чрезмерных запросов к железу. Чтобы Windows 3.1 хорошо работала, ей был нужен 486-й, но GeoWorks свободно и без проблем работала на 286 и 386. Она была стабильной, и, несмотря на то, что как и ранние версии Windows, она была всего лишь графической оболочкой для DOS, с ней редко возникали проблемы.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« У программы образовалась когорта фанатов, особенно среди немецких пользователей, много сделавших для поддержания памяти о ней.
Ещё одна компания, Quantum Computer Services, обеспечивавшая ранний доступ к Commodore 64, увидела в GeoWorks возможность выйти на рынок PC, и запустила свою первую онлайн-сеть для компьютеров IBM PS/1.
» Нажмите, для открытия спойлера | Press to open the spoiler «
«Интерфейс Promenade позволяет с лёгкостью использовать сервисы всем членам семьи, не раздражаясь от необходимости использовать сложные команды и функции», – писал исполнительный вице-президент компании Стив Кейс в пресс-релизе 1990-го года. «При этом программа достаточно продвинута для того, чтобы удовлетворить опытных пользователей онлайн-сервисов».
В течение года платформу переработали в America Online, компанию, которую Кейс провёл через 90-е, и через 10 лет компания окажется в гуще опрометчивого слияния с Time Warner – при том, что AOL была одной из определяющих программ эры Windows.
У GeoWorks была своя AOL до того, как это стало считаться крутым – золотая возможность захватить рынок PC, особенно из-за того, что на первых дисках от AOL содержались базовые версии GeoWorks. Это позволяло обладателям модемов попробовать GeoWorks бесплатно.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« » Нажмите, для открытия спойлера | Press to open the spoiler «
Но этого было недостаточно. За пределами AOL у GeoWorks было очень мало сторонних приложений. Частично это было из-за того, что на ранних этапах для разработки софта под эту платформу вам была необходима рабочая станция Sun. Это довольно иронично, учитывая, что для разработки софта для дешёвых PC требовался компьютер стоимостью под $7000. «Семейные предприятия» никак не могли бы выйти на этот рынок.
А в то же время Microsoft выпускала нативные платформы для разработки Windows, такие, как Visual Basic, и завоёвывала признание мелких разработчиков.
Но с этими ограничениями можно было бы разобраться, если бы у ОС для настольных компьютеров появилась бы достаточно большая аудитория. Даже отъявленные фанаты GeoWorks понимали, что против Windows у неё нет никакого шанса против Windows из-за большого рвения Microsoft.
«Мне было очень неприятно из-за того, что этой по-настоящему удивительной программе никто не дал шанса, IBM и Microsoft не позволили ей развиться», – писал один такой фанат в PC Magazine в 1991 году. «Надеюсь, что разработчики ПО увидят удивительный потенциал Ensemble и начнут разработку для неё. Без сторонних разработчиков Ensemble не выживет».
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Microsoft стояла на плечах гигантов, а GeoWorks не доставала и до лодыжек.Хотя GeoWorks и не удалось завоевать сердца пользователей, отдавших предпочтение Windows, ОС ещё не полностью умерла. Операционки часто проживают множество жизней, даже если они не взлетели. Они внезапно появляются то тут, то там, поскольку в определённых случаях софт ещё полезен.
К примеру, webOS, ОС для Palm, от которой уже давно отказались, сейчас управляет умными телевизорами от LG.
Судьба GEOS складывалась похожим образом. Словно корова, прошедшая через процесс пищевой переработки и разделённая на миллион кусочков, части GEOS возникают в списках ингредиентов во всяких странных продуктах. Среди мест, где были видны кости GEOS, можно назвать:
Цифровые ассистенты. » Нажмите, для открытия спойлера | Press to open the spoiler «
До того, как Джефф Хокинз, основатель Palm Computing, придумал PalmPilot, он сделал первую попытку создания платформы при помощи облегчённой версии GEOS. Tandy Zoomer, вышедший в 1993 году, хитом не стал, но сотрудничество с GeoWorks, Tandy и Casio для Хокинза и его команды было информативным. Оно помогло подготовить почву для первого реально успешного PDA несколько лет спустя – но он уже не использовал GEOS.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Ранние смартфоны.» Нажмите, для открытия спойлера | Press to open the spoiler «
Роль GEOS в революции мобильников не ограничивалась Palm. В конце 90-х эта ОС была ключевой частью Nokia 9000 Communicator, одного из самых ранних смартфонов, который был очень хорошо принят. Он был способен на простейшую работу с текстом, у него был графический браузер, и он мог даже редактировать электронные таблицы. Он не был дешёвым, и в самом начале стоил $800, а также был просто огромным по размеру. «Современные пользователи относятся к мобильной электронной почте и просмотру веб-страниц как к обыденности, но Nokia 9000 Communicator был первым устройством, объединившим всё это», – писал автор обзоров технологических новинок Ричард Бэгули в 2013-м. «Возможно, он и был громоздким и тяжеловесным устройством, но мы всё равно скучаем по нему».
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Электронные пишущие машинки. » Нажмите, для открытия спойлера | Press to open the spoiler «
В 90-х производителям пишущих машинок было тяжело, и фирма Brother не была подготовлена к интернет-революции. Но у неё было кое-что припасено в рукаве: GEOS. Компания сотрудничала с GeoWorks в производстве вариантов принтера с такими возможностями, как простейшая работа с текстом и настольная издательская система. Это всё равно были пишущие машинки, но они делали и более интересные вещи, чем простое написание текста.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Примитивные нетбуки. » Нажмите, для открытия спойлера | Press to open the spoiler «
Интерес Brother в GEOS распространялся не только на пишущие машинки. Она видела в GEOS возможность вывести «компьютер в массы», как было написано в одном пресс-релизе. В 1998-м, когда GEOS уже успели забыть практически все, компания-производитель пишущих машинок запустила альтернативную платформу – GeoBook за $500, ноутбук низкой мощности, на десятилетие опередивший появление нетбуков. На нём можно было использовать браузер и множество программ, доступных в DOS-версии GeoWorks, но у него не было жёсткого диска, из-за чего стоимость можно было держать на низком уровне. И, точно как с нетбуками, обзорщики ненавидели этот аппарат. «За цену этого устройства можно легко купить восстановленный или бывший в употреблении компьютер под Windows, а может даже и новый. Он будет способен на сотни вещей, о которых эта машина может лишь мечтать», – пояснялось в отрицательном обзоре 1998 года в New York Times.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Сегодня, насколько мне известно, таких безумных проектов на GEOS не существует, но, возможно, она работает где-нибудь в банкомате.
» Нажмите, для открытия спойлера | Press to open the spoiler «
Но, несмотря на все дополнительные жизни, имевшиеся у GeoWorks, сегодня её перспективы хуже, чем когда-либо. В частности это происходит из-за сложной корпоративной истории, связанной с GEOS. После распада компании, создавшей программу, в 90-х, технологию продали фирме NewDeal, построившей на основе GEOS набор офисных программ, очень похожий на Windows 95, что забрало большую часть уникального шарма платформы.
В какой-то момент ОС принадлежала сыну Тэда Тёрнера, пытавшегося раскручивать компанию-производителя недорогих PC под названием MyTurn.com, основой которых было ПО от GeoWorks. Когда в 2013-м Тэд Тёрнер пытался участвовать в выборах в Конгресс, его работа в этой компании сослужила ему плохую службу.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« В результате ОС попала в руки компании Breadbox, которая обходилась с GeoWorks как с проектом, над которым работают на общественных началах, и пыталась превратить GEOS в образовательную платформу, работающую совместно с Android.
Но недавно Breadbox заморозила активность. В ноябре 2015 основатель компании, Фрэнк Фишер, неожиданно умер, когда компания была в процессе создания варианта ПО для планшетов.
Джон Говард, его давний партнёр по Breadbox, сейчас работает над следующими этапами, и беседует с семьёй Фишера, а также с другими разработчиками, интересующимися этой платформой.
«Остаётся разобраться ещё с кое-какими юридическими вопросами, но я уверен, что в коде GEOS ещё теплится жизнь», – писал он на сайте Breadbox в 2016-м.Источник: geektimes + просторы интернета...
HugoBo-SS, 25.08.2017 - 18:32
Внутренняя история крупнейшей ошибки Texas Instruments, микропроцессора TMS9900
Если вы используете настольный компьютер или ноутбук, вероятно, в нём стоит микропроцессор линейки Intel 808x, неважно, работает ли машина под управлением Windows или Mac. Абсолютное доминирование этих микропроцессоров восходит к 1978 году, когда IBM выбрала 8088 для своего первого персонального компьютера. Но этот выбор был совсем не очевидным. Некоторые считают, что Intel 8088 был худшим выбором из имевшихся в то время 16-битных микропроцессоров.
Нет, это не был худший выбор. Ему была серьёзная, но худшая, альтернатива. Я знаю это потому, что я руководил организацией, работавшей в составе TI, разработавшей его: TMS9900. Хотя это барахло и использовали в первом в мире 16-битном домашнем компьютере, вы наверняка о нём не слышали. Как говорится, историю пишут победители.
Texas Instruments 99/4
Эта глава истории интересна не только чипом от TI, но и другим его конкурентом, Motorola 68000, с технологической точки зрения превосходившим как Intel 8088, так и TMS9900. И всё же 68000 не попал в IBM PC. И вот вам малоизвестная история от хорошо осведомлённых источников о том, как IBM выбрала недоразвитый чип, TI породил неудачника, а явный лидер от Motorola проиграл.
» Нажмите, для открытия спойлера | Press to open the spoiler «
Я устроился на работу в TI в 1972-м, сразу после аспирантуры, и через два года я уже делал презентацию для Джека Карстена, менеджера отдела MOS в Хьюстоне, где базировалась работа компании над металл-оксид-полупроводниковыми (MOS) чипами. Я, молодой инженер, несколько робел перед Джеком, всю презентацию просидевшим с ногами, закинутыми на стол в конференц-зале, курившим сигару и бормотавшим «херня» каждый раз, когда он не соглашался с чем-то, что я говорю.
В то время большая тройка полупроводниковых компаний — Fairchild, Motorola, and TI – пытались перейти от биполярных микросхем к MOS. Чипы MOS требовали совершенно другой схемы и процесса изготовления, и такие стартапы, как Intel, развивались гораздо быстрее уже существовавших компаний. Из всей большой тройки TI лучше всего удался переход, во многом благодаря таким людям, как Л. Дж. Севин, ушедший из TI в 1969 году, чтобы основать Mostek и впоследствии заниматься венчурными инвестициями. Карстен, до этого работавший в TI главным менеджером по прибыльной линейке продуктов транзисторно-транзисторной логики (TTL), также был ключевой личностью при переходе на MOS.
Отдел MOS в TI добился самого значительного успеха в разработке логических чипов для быстрорастущего рынка переносных калькуляторов. Хотя компания состязалась, и в итоге победила Intel, в разработке первого процессора общего назначения, инженеры TI не особенно интересовались микропроцессорами (МП) от Intel, 4-битным 4004 и 8-битным 8008. TI заметила 8-битные микропроцессоры 8080 и последовавший за ним 8080А, ведь они были более многообещающими, чем 4004. Отделу MOS поручили догнать Intel как по МП, так и по DRAM (динамическая память с произвольным доступом, способная впихнуть больше ячеек памяти на чип, чем RAM, но требующая постоянного обновления для предотвращения потери данных).
Так в TI и появилась стратегия создания МП общего назначения. Ключевыми предположениями стратегии были следующие: прикладное ПО будет главным стимулом для эволюции этих чипов, а как обладатель успешной линейки MOS IC, TI будет находиться в отличной позиции для разработки индустриального стандарта для микрокомпьютеров, систем безопасности и потребительских продуктов. Все перечисленные отрасли были быстро растущими источниками прибыли для компании. Но для этого TI необходимо было перепрыгнуть текущую передовую 8-битную разработку, примером которой был Intel 8080, и стать первой компанией, выведшей на рынок 16-битную архитектуру. Эта стратегия породила план создания TMS9900.
TI уже продемонстрировала свои компьютерные умения в гонке суперкомпьютеров в конце 1960-х. Двигали эту гонку нефтяные компании, пытавшиеся достичь конкурентного преимущества в трёхмерном сейсмическом анализе при разведывании нефтяных месторождений. На этом бизнесе и была основана TI. IBM, Control Data Corporation и другие компании соревновались в этой гонке, но TI первой вывела на рынок свой Advanced Scientific Computer
Advanced Scientific Computer
Так что для TI выбор архитектуры для 16-битного чипа был простым. У TI была стратегия «одна компания, одна компьютерная архитектура», направленная на использование синергетических эффектов, существующих между разными, несоизмеримыми отделами компании. Отделение по работе с информационными системами уже запустило семейство микрокомпьютеров на базе TTL для использования в гостиничной сети Ramada Inn по всей территории США. Так что TMS9900 должен был использовать архитектуру, очень похожую на архитектуру микрокомпьютера от TI.
Команда Карстена знала, что разработка TMS9900 – как и биполярной его версии для военных под названием SBP9900 – потребует времени, и чипы, скорее всего, не будут готовы раньше 1975-1976 годов. В это время отделению MOS необходимо было действовать. Они планировали начать с копирования Intel 8080A, чтобы вывести хоть что-то на рынок, затем разработать оригинальную 8-битный микропроцессорную архитектуру (которая будет называться TMS5500), и, наконец, перейти к 16-битным TMS9900. National Semiconductor к тому времени уже выпустила 16-битный набор логических чипов общего назначения под названием IMP-16, но из-за того, что это был именно набор из нескольких чипов, популярности он не снискал.
У TMS9900 был свой багаж трудностей в разработке и задержек, но в итоге он был готов к 1976 году. И всё равно он столкнулся с несколькими крупными проблемами. Во-первых, не было совместимых с ним 16-битных периферийных чипов. А без периферийных чипов, работающих над передачей и хранением данных, МП будет бесполезен для разработки систем. Второй проблемой было то, что у архитектуры 9900, схожей с тем, что TI использовала в микрокомпьютерах, было всего 16 битов логического адресного пространства – как и у 8-битных процессоров того времени. Эту проблему нельзя было решить, не разработав новую архитектуру с нуля. Последней проблемой было то, что хотя TI могла использовать технологию одного МП для своего миникомпьютера, оборонки и полупроводникового бизнеса, её конкуренты в этих отраслях окажутся в невыгодном положении, если станут брать для своих продуктов архитектуру от TI.
Чтобы бороться с отсутствием 16-битной периферии, инженеры TI придумали следующую инновацию. Почему бы не приспособить на TMS9900 8-битный порт, так, чтобы с ним могло работать большое количество уже существующих периферийных чипов, разработанных для 8-битных МП? Уверен, что в то время это казалось разумным. В результате в 1977 появился TMS9980. Присоединение 8-битной периферии к 16-битному МП устранило единственное реальное преимущество 16-битной архитектуры: быстродействие. 9980-му требовалось два командных цикла для выполнения команды от 8-битной периферии, в результате чего эффективное быстродействие падало в два раза, что было не лучше, чем у уже существующих 8-битных МП. До реализации великого плана TI Карстен ушёл из компании на должность вице-президента по продажам и маркетингу в Intel, чувствуя, вне всякого сомнения, что Intel станет очень серьёзным соперником, которого на рынке МП будет крайне сложно победить.
Intel, естественно, разрабатывал свой собственный 16-битный микропроцессор, 8086, увидевший свет в апреле 1978. Компания подошла к вопросу отсутствия совместимой 16-битной периферии точно тем же способом, добавив 8-битный порт к МП, что породило Intel 8088. Как и TI 9980, Intel 8088 был барахлом, и показывал уменьшенное быстродействие по сравнению с 8086 в любой реальной системе. Но у чипа от Intel было одно фундаментальное преимущество перед TI: 20 бит логического адресного пространства вместо 16. А в результате у него была возможность обращаться к мегабайту памяти, а не к 64К, как у TI 9900. Кроме того, внешние регистры TMS9900 и 9980 ещё больше ухудшали его быстродействие.
И пока Intel удачно разрабатывала альтернативные источники производства для 8086, TI с трудом пыталась заключать схожие сделки. В то время большинству клиентов необходимы были как минимум двое соревнующихся между собой поставщиков для каждого нового семейства полупроводниковых компонентов, чтобы обеспечить доступность продукта по приемлемой цене.
А в это время несколько конкурентов объявили о своих планах на создание 16-битных процессоров общего назначения. Самым амбициозным планом был Motorola 68000. Хотя у него было 16 внешних контактов, внутренняя его архитектура была 32-битной, и у него было 24 бита для логического адресного пространства. Следующий продукт, возможно, смог бы использовать 32 адресных бита. Zilog, создатель популярного 8-битного МП Z80, объявила о разработке 16-битного Z8000, с сегментированной памятью, выход которого планировался на 1978-1979 года. В отличие от 68000, у Z8000 была простая 16-битная архитектура.
В октябре 1978 года, через шесть месяцев после анонса Intel 8086, я перешёл в отделение MOS в TI и стал менеджером по МП. К тому времени все в компании, и многие вне её, знали, что 16-битная стратегия TI для МП не работала. Неудачная попытка подразделения разработать совместимый 16-битный микроконтроллер TMS9940, который к моему появлению прошёл уже 5 или 6 итераций, только усиливала эту проблему. Я знал, что наследую тяжёлую ситуацию. Так зачем же я бросил хорошую работу в качестве менеджера департамента разработки потребительских продуктов? Местоположение, местоположение, местоположение. Микропроцессорное предприятие находилось в Хьюстоне, а потребительские продукты TI перенесла в Лаббок, Техас. Лаббок – это город, в котором правильным ответом на вопрос «Как вам здесь нравится?» будет «Люди тут замечательные». Кантри-певец Мэк Дэйвис, выросший здесь, однажды написал песню с припевом «Я думал, что счастье – это Лаббок, Техас в зеркале заднего вида».
Вскоре после того, как я прибыл в Хьюстон, мне сказали, что я должен буду провести презентацию по TMS9900 для группы из IBM, работавшей над очень секретным проектом, требовавшим 16-битного микропроцессора. Группа приехала из необычного для IBM места: Бока-Ратон, Флорида. Я очень долго готовился к этому, выдал, как я считал, хорошо подготовленную презентацию, и прилежно работал с последствиями. Но команда из IBM не выказала особенного энтузиазма. До 1981 года мы не знали, в чём проиграли.
Джон Опель, президент, а потом генеральный директор IBM, совершил революционный ход, основав отделение в Бока-Ратон, позже ставшее известным как Entry Systems Division. Он понял, что персональные компьютеры от Apple, Commodore, Radio Shack, TI и других могут стать угрозой доминированию IBM в компьютерном бизнеса. Так что он дал группе из Бока-Ратон, руководимой Филиппом Эстриджем, карт-бланш на разработку их продукта – персонального компьютера от IBM. Они могли использовать помощь третьих лиц для чего угодно, включая разработку ОС и прикладных программ. Такое отношение сделало систему довольно «открытой» по стандартам IBM, и ускорило выход продукта на рынок. Однако у Опеля было одно ограничение: продукт будет носить имя IBM, поэтому он не может подрывать репутацию компании по качеству и надёжности. Поэтому массивная организация по контролю качества внутри IBM должна была подписать выход этого продукта до начала его продаж.
IBM 5150 PC вышел в августе 1981. В США в стоимость $1565 не входили монитор, принтер и два дисковода.
О выборе командой IBM 16-битного МП спорить не приходилось. Motorola 68K, как его назвали позже, был, без сомнения, явным фаворитом. У него было самое большое логическое адресное пространство, что было ещё важнее, чем минимально 16-битная внутренняя архитектура. Его легко было расширить до полностью 32-битной архитектуры. И, что самое важное, 68К работал с порядком байтов «Big Endian», то есть от старшего к младшему. Речь идёт о порядке, в котором компьютеры хранят байты в памяти. 16-битная архитектура произошла от 8-битной, и инженерам пришлось решать, какой из 8-битных байт будет первым в 16-битном мире. Digital Equipment Corp. выбрала порядок от младшего к старшему («Little Endian») для своего Programmed Data Processor (PDP) и архитектур VAX. Intel сделал то же самое. Но компьютеры IBM использовали другой порядок, «Big Endian». Чтобы «Big Endian» общался с «Little Endian», порядок байт приходилось менять на обратный на лету. В то время такое конвертирование данных было нетривиальным. 68K от Motorola не требовал конвертации для использования с IBM PC. Так почему же мы сегодня не используем компьютеры на базе 68К?
Ответ связан с тем, кто первый вышел на рынок. 8088 был неидеальным, но, по крайней мере, он был готов, а 68К не был. Скрупулёзный процесс оценки качества IBM требовал, чтобы производитель предоставил тысячи образцов выпущенного продукта для каждой новой запчасти, чтобы IBM могла проводить на них живые тесты. В IBM контролем качества занимались сотни инженеров, но это отнимает время. В первой половине 1978 года у Intel уже были изготовлены примеры 8088. К концу 1978 68К ещё не был полностью готов к выходу.
К несчастью для Motorola, группа из Бока-Ратон хотела выводить на рынок новый IBM PC как можно скорее. Так что у них было только два полностью готовых 16-битных МП на выбор. В соревновании двух неидеальных чипов чип от Intel оказался менее неидеальным, чем чип от TI.
TMS9900 не остался тихо умирать, не получив признания от IBM PC. Управляющие всё ещё надеялись продавить корпоративную стратегию. Конечно же домашний компьютер от TI, анонс которого ещё только ожидается, должен будет использовать TMS9900?
Команда разработки компьютера нехотя согласилась дать ему шанс. Эта группа явилась результатом несчастливого слияния двух департаментов, один из которых разрабатывал игровую консоль, а другой – персональный компьютер. Получившийся у них гибрид не был приспособлен ни для того, ни для другого. Но TI упрямо гнули свою линию. TI-99/4 вышел на рынок в 1979-м, за ним последовал TI-99/4A в 1981. Компания в итоге продала 2,8 млн штук, большую часть из них – в убыток, пока не ушла с рынка персоналок в 1984.
Тем временем архитектура Intel 8086 эволюционировала и преодолела недостатки. Она всё ещё использует порядок байтов Little Endian, но сегодня это не имеет никакого значения. А Motorola со своей превосходящей технологией проиграла единственное важнейшее соревнование по разработке за последние 50 лет.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Раз уж мы говорим об остальных конкурентах, скажу пару слов об ОС для IBM PC. Логичным выбором для 16-битной ОС было расширение популярной ОС CP/M, разработанной Гэри Килдаллом в Digital Research на основе Zilog Z80. Группа из Бока-Ратон понимала, что за CP/M стоит открытый стандарт, поэтому они заказали Digital Research разработку версии под названием CP/M-86. В процессе Microsoft возникла с предложением MS-DOS, о которой уже много всего написано. Поэтому мир ПК развивался не в том направлении, о каком можно было сначала предположить, как в плане ОС, так и в плане микропроцессора.
Источник: geektimes, автор текста Walden C. Rhines
HugoBo-SS, 14.09.2017 - 21:31
«Хлебница», изменившая мир: 40 лет легендарному Commodore 64
Если б не война, ничего этого, наверно, не случилось бы. Яцек Тршмиэль спокойно жил бы в Лодзе с любящими родителями Абрамом и Ривкой. Возможно, открыл бы небольшой магазин или мастерскую. Или, поступив в один из многочисленных университетов города, стал бы профессором математики. Или изящных искусств. Но судьба распорядилась иначе — в сентябре 1939 года немецкие войска вторглись в Польшу. Семью Тршмиэлей сперва переселили в гетто, а затем — увезли в Освенцим.
К тому времени, как до концлагеря добрались союзные войска, из всей семьи был жив только Яцек — полный решимости начать новую жизнь, в которой он сам себе будет хозяином. Никто больше не сможет унижать его и помыкать им. Так он стал гражданином США, Джеком Трамиэлем, основателем компании Commodore.
Скромные начинания» Нажмите, для открытия спойлера | Press to open the spoiler «
Ни о каких компьютерах поначалу речи не шло. Отслужив в армии и получив правительственный кредит, Джек решил заняться продажей печатных машинок: недорогие детали из Чехословакии ввозили через Канаду и собирали уже в Штатах. Дела шли неплохо, но долго это не продлилось: США наводнили дешёвые аппараты из Японии, и бизнес быстро пошёл ко дну. От полного краха спасло только вмешательство крупного предпринимателя Ирвинга Гульда, который выкупил значительную часть компании. Трамиэль не стал банкротом, но ценой оказалась свобода: когда-то он зависел от настроения начальников концлагеря, теперь его благополучие оказалось в руках Гульда. И тот не давал своему протеже об этом забывать.
Обращаться к богачу за помощью было унизительно — и вскоре, к ужасу Трамиэля, ему пришлось сделать это снова. После неудачи с печатными машинками было решено переключить Commodore на производство недорогих цифровых калькуляторов: детали стали дешёвыми, сборка и продажа — выгодной. Дела вновь пошли в гору, Трамиэль был готов праздновать победу. Но удача во второй раз отвернулась от него.
Commodore не изготовляла комплектующих: дисплеи закупались у компании Bowmar, а нужные чипы — у Texas Instruments. Последняя и поставила палку в колёса: решила избавиться от посредника и стала собирать калькуляторы сама (кстати, она занимается этим и по сей день). Кроме того, в очередной раз на рынок вышли японцы — тягаться с ними Трамиэлю было не под силу. Снова пришлось просить милостыню у совета директоров. Гульд неохотно выделил сумму на спасение компании.
Кого-то другого подобная череда неудач, возможно, обескуражила бы, заставила сложить руки и уйти на покой. Но только не Джека Трамиэля: этот боец не собирался сдаваться. Он решил уничтожить Texas Instruments и вытеснить их с рынка. И оставалось только найти тех, кто помог бы ему это сделать.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Взгляд в будущее» Нажмите, для открытия спойлера | Press to open the spoiler «
Чак Педдл всегда был неутомим. К середине 70-х у него за плечами была служба в Морской пехоте США, работа в General Electric, и два собственных предприятия. Кроме того, Педдл успел поработать в Motorola, где вместе с Томом Беннетом трудился над восьмибитным микропроцессором Motorola 6800 — настоящей революцией в индустрии IT. Уже одного этого хватало, чтобы вписать собственное имя в историю, но Педдл вовсе не собирался останавливаться: он смотрел в грядущее. Туда, где компьютеры были в каждом доме, у каждого человека, а не только в отдельных кабинетах для специально обученного персонала.
«Я говорил, что не за горами то время, когда в каждом доме будет стоять не один компьютер, а по два или больше. В те времена мало у кого они вообще были, и на меня смотрели, как на сумасшедшего», — Чак Педдл, создатель процессора MOS 6502.
Но для изготовления устройства, доступного простому человеку, нужны недорогие детали. Педдл, уволившись из Motorola, ушёл в небольшую контору MOS Technologies. Там он создал продукт, которому суждено было перевернуть всю индустрию IT. И имя ему было — процессор MOS 6502.
«Прихожу я в офис [Motorola] и вижу на столе письмо от юристов. Они заявили, что компания будет развивать 6800, а работу над бюджетной версией надо прекратить. А я им написал в ответ, что они только что отказались от права на патент, и я больше не буду у них работать совсем» — Чак Педдл, создатель процессора MOS 6502.
На первых порах никакой рекламы у чудо-процессора MOS Technologies не было — Педдл с женой сами ездили на выставку в Калифорнию, где продавали их всем желающим по 25 долларов за штуку. Одним из покупателей был молодой Стив Джобс, который позднее показал 6502 Стиву Возняку. Именно этот процессор стоял в Apple I. А также Apple II, Nintendo Entertainment System, Famicom, Atari 2600…
Другим клиентом MOS Technologies стала Commodore. Сначала компания Трамиэля просто закупала у MOS некоторые детали. Но когда Джек объявил Texas Instruments войну, собственный производитель чипов должен был стать его главным оружием. Так Commodore купила MOS Technologies целиком, а войска Трамиэля пополнились талантливыми и опытными инженерами MOS. И главным среди них был Чак Педдл.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« По правилам войны» Нажмите, для открытия спойлера | Press to open the spoiler «
Уже тогда, в середине 70-х, Педдл знал: калькуляторы — это прошлый век. Будущее — за микрокомпьютерами. Пускай сейчас ими интересуются лишь профи и энтузиасты-одиночки — не за горами день, когда они понадобятся всем, даже домохозяйкам. Того, кто выйдет на этот рынок первым, ждёт успех. Оставалось лишь внушить это новому начальству.
«Убеждать и уговаривать Джека, к счастью, практически не пришлось. Он скоро понял, что на рынок калькуляторов нам не вернуться. Хотя сам он в компьютерах ничего не понимал. Его интересовало только одно: как быстро мы сможем это сделать. На встречи с инженерами он ходил со своим сыном Леонардом, тот как раз был специалистом. Леонард говорил Джеку: “Пап, работает”. И Джек соглашался», — Чак Педдл, создатель процессора MOS 6502.
Commodore PET стал первым в истории массово доступным персональным компьютером. И Apple II, и TRS-80 поступили в продажу позднее. Это был не просто успех — это была настоящая революция, объясняет Педдл. Для большинства компьютеры были чем-то далёким — огромными и непонятными мейнфреймами. Никто и не задумывался о том, что такая штука может потребоваться кому-то дома. Но теперь миллионы людей вдруг захотели её купить.
«На выставке к нам подошла женщина и пожаловалась: её семья купила у нас PET, и всем он так нравился, что пришлось составить расписание, по которому все им пользовались. И ей выпало время с двух ночи до шести утра. Поэтому она решила купить отдельный компьютер себе. Так я понял, что оказался прав. Сначала мы создали аудиторию для первого компьютера — и эта аудитория покупала у нас и последующие», — Чак Педдл, создатель процессора MOS 6502.
Но Трамиэль не спешил почивать на лаврах — ему ещё предстояло разобраться с конкурентами: и с Texas Instruments, и теперь ещё с Apple. Он был готов встретить их во всеоружии.
Его не интересовали инновации: лишь прибыль, сокращение расходов и доля на рынке. Несогласных он вынуждал либо подчиниться, либо уйти из компании. В индустрии ходили слухи и легенды о так называемых «атаках Джека» (Jack Attack): сеансах прилюдного унижения, которым Трамиэль подвергал нерадивых работников.
Чак Педдл работал не за страх, а за совесть, и «атаки Джека» миновали его. Но он был слишком популярен, слишком часто позволял себе не соглашаться с боссом, и в итоге Трамиэль сделал всё, чтобы инженер уволился вскоре после выхода очередного компьютера, VIC-20, в 1980 году. «Когда Трамиэлю было нужно, он умел превратить вашу жизнь в настоящий ад», — вспоминает Педдл. На то, что думали по этому поводу сами уволенные, директору Commodore было наплевать. Пока компания могла позволить себе выжимать максимум из MOS 6502 и других технологий, она планировала это делать.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Триумф» Нажмите, для открытия спойлера | Press to open the spoiler «
В конце 1981 года Трамиэль дал своим инженерам задание: на основе уже имевшегося компьютера VIC-20 сделать по-настоящему мощную и при этом недорогую машину, причём обязательно с 64 Кб оперативной памяти — цена на неё как раз начала снижаться, и к моменту запуска массового производства была бы компании по карману. Прототипы должны были быть готовы к Новому году. Зная крутой нрав начальства, Роб Йаннес, Ал Шарпантье и Ясухара Теракура вздохнули, отменили все планы на День благодарения и Рождество, засучили рукава и за два месяца сотворили чудо. Commodore 64.
Сегодня невозможно удержаться от снисходительной улыбки при взгляде на характеристики Commodore 64: подумать только, аж 64 килобайта оперативной памяти! Целых 16 цветов и разрешение 320 на 200 точек (160х100 в четырёхцветном режиме)! Восьмибитный процессор (модифицированная версия всё того же MOS 6502)! Заключено всё это великолепие было в угловатый бежевый корпус, в народе получивший название «хлебницы».
Но для 1982 года это был настоящий прорыв. Чего стоила возможность плавной прокрутки экрана — такой не было ни у Apple, ни у Atari! Картинка у C64 была такая, что четырёхцветный скромняшка ZX Spectrum мог только краснеть.
А подобного звука больше не было ни у кого — три «голоса» с восемью октавами каждый, возможность применения фильтров и многое другое. В маленький SID-чип Commodore 64 поместили, по сути, полноценный синтезатор.
На CES 1982 года конкуренты из Atari только и могли ходить с раскрытым ртом, восхищаясь возможностями C64 и его ценой: компьютер продавали за 595 долларов при себестоимости менее сотни. Atari 800 отпускали в рознице за 550 долларов почти себе в убыток. Давние «враги» из Texas Instruments сдержанно молчали — да, их TI-99/4A мог похвастаться аж 16-битным процессором, в отличие от C64. Но и производить его было куда дороже. Трамиэль, опытный боец, заметил эту уязвимость и не преминул нанести удар, развязав с заклятым врагом войну: он начал опускать цены на C64 и его предшественника, VIC-20, вынуждая соперников делать то же самое.
«В том, что Commodore ушла с рынка калькуляторов, не было большой вины Texas Instruments. Японские компании сыграли в этом куда большую роль. Но Джек всё равно решил уничтожить Texas Instruments», — Чак Педдл, создатель процессора MOS 6502.
Наконец-то Джек Трамиэль добился желаемого. Поверженный противник лежал у него ног, а сам он вышел победителем. В новый 1984 год Commodore вступала с хорошими новостями — прибыль компании достигла миллиарда долларов. Можно было задуматься и о том, чтобы передать дело всей жизни сыновьям, а самому уйти на покой. Но этим мечтам не суждено было сбыться — Ирвин Гульд, которого Трамиэль не переставал раздражать, практически выгнал его из компании.
А Commodore 64, эта невзрачная бежевая «хлебница», продолжала жить. Производство только дешевело, а спрос сохранялся вполне стабильный. Выводить сигнал компьютер мог и на домашний телевизор, а читал, как и Spectrum, программы с аудиокассет (хотя существовал и дисковой привод, и картриджи). Но, как и в случае с детищем Клайва Синклера, спрос на C64 обеспечивали вовсе не серьёзные и солидные бизнесмены, а геймеры и гики, которые не только играли, но и учились программировать, открывая для себя возможности устройства и основы BASIC. Всего для компьютера вышло более двух тысяч игр — причём новые появляются до сих пор.
Новое руководство Commodore несколько раз порывалось «убить» C64 — а потом смотрело на данные о продажах и вместо этого выпускало на рынок новые версии компьютера. Всего было продано около 17 миллионов устройств. Среди них улучшенные, и, напротив, бюджетные машины, и даже вариант, что называется, «для консольщиков» — без клавиатуры, зато с контроллерами. Непотопляемый компьютер протянул 12 лет — его выпускали с 1982 по 1994 год. А в Германии, где он оказался особо популярен, C64 выпускали вплоть до 1996 года.
К тому моменту основное подразделение Commodore уже два года как было признано банкротом и прекратило свою деятельность. Стива Джобса со скандалом прогнали из Apple. Atari, где теперь работал Джек Трамиэль, изо всех сил пыталась удержаться на плаву. Чак Педдл успел побывать в России, где устанавливал принтеры в научных центрах и собирался развивать электронную промышленность — в поездках его охраняли агенты КГБ, а доклады передавались президенту Ельцину. Клайв Синклер совсем позабыл о производстве компьютеров, а самой распространённой машиной стала IBM PC в связке с Microsoft Windows. Но даже империи Билла Гейтса оказалось не под силу похоронить Commodore 64 окончательно.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Жизнь после смерти» Нажмите, для открытия спойлера | Press to open the spoiler «
ZX Spectrum продолжил жить в многочисленных кустарных копиях, но с Commodore 64 этого не произошло. Правда, в 1998 году бренд попытались использовать для совсем другого девайса — дешёвого и слабосильного PC на Windows 3.1, который позволял владельцу лазить по Интернету… и немногим больше. Потом, в 2004 году вышла простенькая приставка для телевизора — обычный эмулятор с предзаписанными на него играми, а в 2015-м — С64 Reloaded, материнская плата, которую можно поместить в корпус от оригинального устройства. В общем, мало общего с армией клонов «Спекки». Но это не значит, что гаджет канул в лету.
Как частенько бывает с ретро-компьютерами, на Commodore 64 обратила внимание демосцена. Уж если умельцам удавалось добиваться почти невозможного от скромного ZX Spectrum, то с куда более шикарным по техническим характеристикам Commodore 64 им было где развернуться. Особую любовь снискал чип SID — его возможности оказались невероятно широкими, и электронные музыканты просто не могли обойти его стороной.
Не остались в стороне и разработчики игр и софта, продолжавшие писать программы — зачастую на чистом энтузиазме. Не говоря уже о множестве портированных игр — нередко с куда более продвинутых систем. Есть и «железо» — при желании для оригинального Commodore можно найти всё, что угодно: от очевидных аксессуаров вроде мыши и принтера (которые вышли ещё при жизни оригинального компьютера) до модема, кард-ридеров и Wi-Fi роутера.
Любительские журналы, посвящённые C64 и демосцене, выходят до сих пор. Чего стоит один только немецкий Scene World, над которым трудится команда из 21 человека. Здесь и обзоры новых игр, и новости демосцены, и интервью с ветеранами индустрии: в том числе с создателями Commodore C64. Создатель журнала, Йорг Дрёге, выпускает Scene World уже 16 лет — с 2001 года. И останавливаться пока не собирается.
Джека Трамиэля не стало в 2012 году. В одном из своих интервью журналу Forbes он сказал «Бизнес — это война. Тут не может быть компромиссов. Может быть только победа». Увы, Трамиэль оказался в этой войне блистательным тактиком и плохим стратегом: его краткосрочная борьба с конкурентами обернулась против него самого. Впрочем, если бы не его стремление побеждать во что бы то ни стало, никакого Commodore 64, возможно, и не было бы. Но бежевая «хлебница» пережила своего главного вдохновителя.
Чак Педдл живёт и здравствует, до сих пор работая в сфере IT. В своих интервью он, смеясь, жалуется на то, что создание персонального компьютера постоянно приписывают Apple. «Но что поделать, у Apple реклама хорошая». Про Стива Возняка Педдл говорит так: «Он умный парень, но иногда мне казалось, будто он не слишком разбирается в том, что делает». Про Россию вспоминает с любовью: «С полупроводниками у вас не очень, но ваши заводы были замечательными, у вас очень много ценных, квалифицированных кадров. Я очень хотел встретить 2000-й в Москве. Жаль, не удалось».
И ещё. Несколько лет назад Чаку Педдлу поставили кардиостимулятор — для поддержания работы сердца. Угадайте, на базе чего он сделан? Так точно: в основе устройства — собственное детище Чака, процессор MOS 6502. Круг замкнулся.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Источник: 4pda, автор текста: Полина Есакова
Comaland - Commodore 64 demo - First Place at X2014
HugoBo-SS, 16.09.2017 - 18:49
Прабабушка твоей PlayStation: история легендарной Atari 2600
Сорок лет назад американскому потребителю предложили диковинное чудо — домашнюю консоль Atari 2600. Она не могла похвастаться внушительной вычислительной мощностью или сколь-нибудь реалистичной графикой. Но это не помешало ей изменить судьбу целого поколения и заложить основы современной игровой индустрии.
Если очень захотеть, можно в космос полететь» Нажмите, для открытия спойлера | Press to open the spoiler «
Год 1968-й. Над Солт-Лейк-Сити воцарилась ночь, но в одной из аудиторий местного университета всё не гаснет свет — там сидит студент по имени Нолан Бушнелл. Что он делает в столь поздний час? Лихорадочно зубрит перед экзаменом? Готовит демонстрацию против Вьетнамской войны? Вовсе нет. На университетском мейнфрейме он запускает Spacewar! — одну из первых компьютерных игр. Бушнелл готов зависать в ней часами. Доступно это развлечение совсем немногим: нужно учиться в престижном вузе, который может позволить себе купить дорогущую машину размером с секцию шкафов. И нужно быть ботаном-компьютерщиком, который знает, на какие кнопки жать и какие рычажки дёргать.
А ведь Spacewar! — забава весьма простая, лишь немногим сложнее пинбола в парках развлечений, где Бушнелл подрабатывает по вечерам. Он уверен, что она понравится какому-нибудь работяге Джо и его детишкам не меньше, чем башковитому студенту MIT. Остаётся только придумать, как донести до них высокотехнологичную игру, и не разориться в процессе. Но у Нолана, который разбирался не только в компьютерах, но и в телевизорах (в юности он занимался их починкой) и тут есть идеи. Если отказаться от дорогого процессора и памяти, заменив их на набор чипов серии 7400 и диоды, получится недорогой в производстве аппарат, который составит неплохую конкуренцию наскучившему пинболу и дартс.
Так Бушнелл с приятелем Тедом Дебни создают Computer Space.
Заключённый в футуристический корпус из блестящего пластика автомат вскоре появился в барах по всей стране, но особого успеха не снискал — игра оказалась слишком сложной для подвыпивших посетителей, которые никогда не видели подобной диковины. Нет, конечно, свой миллион долларов Comрuter Space заработала. Но дистрибьютор новинки, компания Nutting Associates, ожидала большего и контракт расторгла.
«Мы с приятелями очень полюбили Computer Space. Но мы были инженерами. Для завсегдатаев кабаков она была непонятной», — Нолан Бушнелл, основатель Atari.
Но Бушнелл не унывает. Первый заработанный миллион только раззадорил его, и он чувствует, что настоящий успех близок как никогда. Раз Computer Space оказалась для почтенной публики слишком сложной, значит, надо подать что-нибудь ещё. И чем проще — тем лучше.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Святая простота» Нажмите, для открытия спойлера | Press to open the spoiler «
Мы, возможно, никогда не узнаем, как именно появилась Atari Pong. Одни говорят, что придумал её инженер Алан Элкорн, которому дали тестовое задание — написать несложную игрушку. Другие — что Нолан с самого начала велел новичку скопировать Magnavox Odyssey и их настольный теннис. Сам основатель Atari, впрочем, такие предположения всячески отрицает.
Но сейчас это уже и не важно. Ведь Pong оказался тем самым успехом, которого так жаждала компания. Разобраться в правилах можно было, даже будучи вдрызг пьяным: никаких кнопок, как в Computer Space, всего одна-единственная ручка, передвигающая по краю экрана «ракетку». Играть получится и одному, и с приятелями, счёт — до одиннадцати очков. Недовольны итогами матча? Скормите автомату ещё четвертак и попробуйте снова. Чертовски просто, изящно и удивительно затягивает.
Pong Consoles - Angry Video Game Nerd - Episode 89
Atari Pong начала триумфальное шествие — сначала, в 1973-м, по барам и кабакам, а покорив их, в 1975-м переселилась в гостиные. Как раз тогда компания выпустила «домашнюю» консоль, которая моментально стала хитом. Одного только Бушнелл с Элкорном не учли: скопировать устройство Pong было невероятно просто, и вскоре её многочисленные клоны посыпались, будто из рога изобилия.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Сделка с дьяволом» Нажмите, для открытия спойлера | Press to open the spoiler «
Год 1976-й. Над Калифорнией раскинулась ночь. В офисе Нолана Бушнелла, президента Atari, не гаснет свет. Перед ним лежит письмо от компании Warner Communications — они хотят купить его детище за баснословную сумму в 28 миллионов долларов. Бушнелл тяжело вздыхает, обдумывая ситуацию.
Со стороны дела у Atari идут отлично: аркадные автоматы продаются на ура, а Pong и её клонами завалена вся страна. Молодая и перспективная компания (слово «стартап» тогда ещё не придумали) вовсю нанимает талантливых сотрудников, устраивает им весёлые вечеринки вместо выплаты квартальных бонусов и снисходительно не замечает запаха конопли, который иногда можно учуять из курилки. В Atari даже работает тогда ещё никому не известный Стив Джобс — ценный кадр, пусть и со странностями (по воспоминаниям Бушнелла, Джобс мог жить на работе, спать под столом и не мыться неделями).
На деле же всё отнюдь не так гладко, как хотелось бы. Разработка новых аркад и их производство стоят дорого. Но ещё дороже обходится новый проект — Stella. Под красивым женским именем скрывается домашняя консоль, призванная заменить Pong, доходы от которой стремительно сокращаются. Выпускать её надо как можно скорее — конкуренты не дремлют. Fairchild уже выпустили свою Video Entertainment System, и если Atari не поторопится, то просто затеряется в потоке подражателей. У Бушнелла денег нет, а Warner готовы вложиться. Молодой инженер, вздохнув, ставит под документом свою подпись. Спустя год Atari Video Computer System, она же — Atari 2600 (та самая Stella) выходит на рынок.
Если бы у Atari 2600 был девиз, им могла бы стать поговорка «голь на выдумки хитра». В основе лежал процессор MOS 6507 — удешевлённая версия и без того недорогого MOS 6502. Оперативной памяти — аж 128 байт (иначе выходило слишком дорого). Зато один из инженеров, Джей Майнер, смог придумать хитрый способ выводить картинку на экран без всякого буфера кадров. Для этого он изобрёл чип Television Interface Adaptor (TIA), который позволял Atari 2600 отрисовывать изображение в реальном времени с помощью электроннолучевой трубки. Решение было вынужденным, очень дешёвым и весьма сердитым — программировать для Atari 2600 было мукой из-за огромного количества ограничений TIA, и похвастаться большой библиотекой эксклюзивов на старте она не могла. Поначалу не все даже поняли, что картриджи можно менять, и первое время продажи шли вяло.
Модель Atari 2600 1982-го года. Чёрный корпус получил в народе прозвище «Дарт Вейдер»
Спасло в итоге то, что пользователь в те годы не был избалован подобными девайсами. Это для инженеров Atari их детище было устаревшим уже чуть ли не на старте. А для простого покупателя приставка была новым, прибывшим из будущего предметом — с солидной деревянной панелью и загадочными тумблерами. Да, порты на Atari 2600 аркадным качеством похвастаться не могли — но кроме аркад, других конкурентов поначалу и не было. Разве что первые компьютеры — самый дешёвый из которых, Commodore PET, стоил почти 800 долларов, а самый популярный, Apple II — больше тысячи. Но их нельзя было запустить щелчком кнопки, вставить картридж и развлекаться — надо было знать BASIC, менять дискеты, а потом ещё и пытаться понять, что вообще происходит на экране. Atari же стоила 200 долларов и в обращении была простой настолько, что освоить её мог даже малый ребёнок. В общем, вскоре приставка стала самым желанным подарком на Рождество и Новый год — именно благодаря ей миллионы американцев открыли для себя видеоигры. А после выхода на ней Space Invaders и PAC-MAN, успех был гарантирован.
«С 2600 Atari хотела продать вам два картриджа: Pong и Combat. Если получалось запустить на ней хоть что-нибудь ещё, все очень радовались тому, что оно вообще работает», — Дейвид Крейн, основатель Activision, на выступлении на GDC.
Чем популярнее становилась консоль, тем больше программистов начинало делать для неё игры, проявляя чудеса изобретательности и выжимая максимум из скромных возможностей TIA. Между собой инженеры называли эти забавы «разгоном луча». Возникали сторонние издатели, приходили новые таланты, а на полках магазинов появлялись картриджи с новинками, многие из которых впоследствии станут классикой.
Warner были довольны — Atari 2600 начала приносить деньги, полностью оправдывая вложенный капитал. Радужную картину портил только неугомонный Бушнелл: он хотел начать разработку новой приставки. Ему не слишком нравилась Stella, вышедшая уже устаревшей, а отставать от прогресса он не собирался. Но начальство было с ним несогласно. Чем он вообще может быть недоволен — получил же чек на 28 миллионов, пусть помалкивает! Бушнеллу очень скоро дали понять — Warner знает о бизнесе куда больше, чем он, и считаться с его решениями никто не намерен. И в 1978 году он покинул собственную компанию.
«Марк Цукерберг и прочие юные миллионеры Кремниевой Долины могут сказать мне спасибо. Это я проложил им путь», — Нолан Бушнелл, основатель Atari в интервью «Би-би-си.
Много лет спустя то же самое случится с его бывшим подчинённым Стивом Джобсом, которого совет директоров выставит из Apple. Вот только потом Джобса всё же примут обратно с распростёртыми объятиями, а Бушнелла спасать Atari никто не позовёт. Команда сбросила его за борт — и корабль медленно, но верно отправился на дно.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Погребение заживо» Нажмите, для открытия спойлера | Press to open the spoiler «
Теперь, когда Бушнелл не мешался и не действовал на нервы, новые хозяева Atari принялись делать деньги по-настоящему. Талантливые программисты и инженеры в компании по-прежнему были. Например, Говард Уоршоу, автор популярной в то время Yar’s Revenge, Дэвид Крейн, Ларри Каплан… Каждый день на работе они старались сделать свой продукт интереснее и сложнее. Но о том, чтобы отметить их труд и хотя бы указывать их имена в качестве создателей, в компании не задумывались. В конце концов, Крейну и Каплану это надоело — хлопнув дверью, они ушли и основали Activision.
Но их уход был лишь одной проблемой Atari 2600. К началу восьмидесятых приставка окончательно устарела морально и начинала серьёзно надоедать потребителю, а рынок между тем наводнили конкуренты — Intellivision от Mattel, ColecoVision, Magnavox Odyssey 2 и другие. Исправить ситуацию могла бы новая, более мощная машина — но о её выпуске в руководстве Warner долгое время слышать не хотели. Вместо этого они решили накормить геймеров играми — не понимая, что и этот рынок уже перенасыщен. Кто угодно мог выпустить картридж для Atari 2600, от талантливых разработчиков Activision до непонятных кадров из какого-то подвала, штамповавших откровенную порнографию — качество и содержание никак не контролировались.
Но, возможно, всё ещё обошлось бы, не открой руководство для себя лицензии. На прилавки посыпались игры по «Звёздным войнам», «Индиане Джонсу» и многим другим популярным фильмам — почти по всему, до чего удавалось дотянуться. И фильм «Инопланетянин» Стивена Спилберга, главный семейный блокбастер 1982 года, руководство Atari просто не могло обойти стороной.
Разрабатывать игру поручили Говарду Уоршоу,
поставив ему чёткие временные рамки — пять недель, хотя в среднем на написание программы уходило несколько месяцев. Тот не спасовал, сдал всё в срок, и работу его в Warner особо не проверяли: на Рождество 1982 года миллионы картриджей отправились в магазины. Руководство компании и не подозревало, что это было начало конца.
Для массового потребителя игра по «Инопланетянину» оказалась слишком сложной, да и управление в ней было реализовано крайне неинтуитивно. Герой всё время сваливался в ямы, из которых ему приходилось выбираться. Цель — собрать аппарат, который поможет лупоглазому пришельцу вернуться домой — оказалась неочевидной, и дети не могли понять, что делать. Расстроенные родители начали массово возвращать картриджи в магазины ещё до того, как Atari успела распродать весь тираж. Понимая, что дело плохо и реализовать оставшуюся партию уже не удастся, руководство решило в буквальном смысле закопать почти миллион экземпляров «Инопланетянина» на свалке в Аламогордо — вместе с приставками, джойстиками и прочим.
Дальше дела шли только хуже: потребитель попросту устал от обилия игр крайне сомнительного качества. Вышедшая в начале 1982 года Atari 5200 исправить ситуацию уже не смогла — заваленные тайтлами от предыдущей системы покупатели просто не обратили на новинку внимания.
Кроме того, у Atari появился новый конкурент: микрокомпьютеры. В рекламе Commodore Уильям Шетнер — тот самый капитан Кирк из культового сериала «Звёздный Путь» — с блеском и спецэффектами появлялся в кадре и расхваливал модель VIC-20: «Настоящий компьютер, на котором можно отлично поиграть! Меньше, чем за 300 долларов!». Ответить на такие претензии Atari было попросту нечем. Warner бросились отчаянно спасать ситуацию: сокращать расходы, увольнять персонал и поручать разработку новой консоли сторонней компании. Но рынок продолжал катиться вниз, и судьба была, в общем-то, предрешена.
Год 1984-й. Над калифорнийским побережьем стоит знойный полдень. В своём особняке Нолан Бушнелл за поздним завтраком читает газету. В разделе «Бизнес» — новость о продаже активов Atari Джеку Трамиэлю, несколькими месяцами ранее изгнанному из Commodore. Компания, которую построил Нолан, рухнула.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Легенды не умирают» Нажмите, для открытия спойлера | Press to open the spoiler «
Но хоронить старенькую 2600, как ни странно, никто не собирался. Чуть ли не первым шагом после перехода к Трамиэлю и сыновьям стало переиздание консоли в новом корпусе — эту модель назвали Atari 2600 Jr. В таком виде она выходила аж до начала 90-х, после чего старушку наконец отправили на заслуженный отдых (в Азии нелицензированные клоны приставки продолжили выпускать и позднее, чаще всего под названием Rambo T.V. Game). Однако и на этом история не заканчивается.
В начале 2000-х Atari 2600 переиздали ещё два раза — в виде телеприставок с предзаписанными играми под названием Atari Flashback и Atari Flashback 2. А умельцы и энтузиасты продолжали выпускать самопальные картриджи для оригинала, осваивая хитрости TIA. Некоторым удавалось сделать практически невозможное — например, научить чип рисовать звёздное небо вместо однотонного фона.
В 2007 году, через 30 лет после выхода, Atari 2600 внесли в списки Зала славы игрушек США. От самой фирмы к тому времени остались только бренд и логотип: при Трамиэлях Atari ещё пыталась цепляться за жизнь, но успех обрела разве что серия компьютеров Atari ST
, а после провальной Atari Jaguar
компания и вовсе прекратила что-либо выпускать и де-факто закрылась. На консольном рынке прочно обосновались японцы из Nintendo и Sony. Activision давным-давно сменила руководство и поставила на поток производство Call of Duty и Guitar Hero. Microsoft успела выпустить две собственных приставки. И всего этого, возможно, не случилось бы, не выйди Atari в далёком 1977-ом году.
А Нолан Бушнелл? Сперва он основал новую компанию — сеть семейных ресторанов Chuck E. Cheese’s, в которых гостей кормили пиццей и развлекали не только аркадными автоматами, но и роботами-аниматрониками в виде забавных мультяшных зверей. Затем создал один из первых бизнес-инкубаторов и попробовал обустроить ещё одну ресторанную сеть, uWink, но в этот раз дела пошли неудачно.
«Сколько всякой ерунды я натворил из-за собственного эгоизма, вы просто не представляете… В тридцать пять лет я был просто невыносим — думал, что не могу ошибиться, и наделал кучу глупостей», — Нолан Бушнелл, основатель Atari в интервью «Би-би-си.
Сегодня он снова занимается видеоиграми — но не простыми, а образовательными. Школьная система, считает 74-летний Бушнелл, устарела, и пора её менять — с помощью виртуальной реальности и последних достижений нейробиологии. Занятие рискованное и требующее больших вложений, но Бушнелл не намерен отступаться. А если не выйдет — не страшно, ведь всегда можно попробовать ещё раз.
«Когда вы проигрываете партию в шахматы, вы же не бежите прыгать с моста? Нет, вы расставляете фигуры на доске и начинаете всё по новой. Так же и в жизни. Жизнь — это игра!», — Нолан Бушнелл, основатель Atari.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Источник: 4pda
HugoBo-SS, 12.12.2017 - 20:56
Краткая история «синего экрана смерти»
Это культовая вещь, хотя Microsoft этого не хотела. В 90-х это была такая же часть основного опыта использования Windows, как Paint и Solitaire, но сегодня его уже не так часто увидишь.
Я, конечно, веду речь о "синем экране смерти", BSoD. Более молодые пользователи ПК представления не имеют о том, насколько распространён был раньше этот сеющий панику экран, или что он означал. Всё, над чем вы работали, пропадало, ваш компьютер требовал перезагрузки — тогда это могло занять и десять минут.
Те из нас, кто его помнят, пытаются его забыть — но сделать это непросто.
По сию пору BSoD — узнаваемый символ чего-то не работающего, но зачем он вообще появился? Перед вами — небольшое путешествие по плохо различимой части улицы воспоминаний, об опасности которой вас предупреждали родители.
Windows 3.1: экран Ctrl+Alt+Delete» Нажмите, для открытия спойлера | Press to open the spoiler «
В Windows 3.1 не было BSoD: когда она падала, вы видели чёрный экран. Если вам везло, на этом экране появлялось поле ввода команд DOS, из которого можно было опять запустить Windows. Если нет, наступало время перезагрузки.
Однако в ней был синий экран, вызываемый по нажатию клавиш Ctrl+Alt+Delete. В будущем он вдохновит дизайн BSoD.
Интересно, что, как записано в записи в блоге Рэймонда Чена, текст для синего экрана написал не кто иной, как будущий директор компании, Стив Балмер, когда он управлял системным подразделением Microsoft.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Windows 95 и 98: первый синий экран смерти» Нажмите, для открытия спойлера | Press to open the spoiler «
Сложно переоценить важность Windows 95: представьте себе шумиху вокруг ранних моделей iPhone, но только идущую по поводу операционной системы для настольных компьютеров. Люди буквально выстраивались в очереди у магазинов. Да, 90-е были странными: люди приходили в восторг от новых возможностей настольных компьютеров. Но этим экраном никто не восторгался.
BSoD показывался каждый раз, когда программа или драйвер падали с грохотом. Он предлагал какую-то шифрованную информацию о причинах проблемы, а затем давал чуть более понятный совет, что пользователю делать дальше.
В теории нажатие любой клавиши должно было закрыть эту программу и вернуть вас обратно на рабочий стол Windows, но на практике это работало редко. Как пишет Рэймонд Чен, ранние версии этого сообщения гласили, что «Возможно, получится продолжить работу в нормальном режиме», но потом эту строку удалили из-за излишнего оптимизма.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Windows 2000: может, провериться на вирусы?» Нажмите, для открытия спойлера | Press to open the spoiler «
К выходу Windows 2000 Microsoft расширила набор советов синего экрана. Все упоминания о возможности возвращения на рабочий стол исчезли, и пользователю сразу советовали отключать компьютер. Также там был набор из нескольких идей по отслеживанию ошибок в случае, если эта проблема возникала снова, от сканирования на вирусы до проверки жёсткого диска на целостность.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Windows XP, Vista и 7: гораздо больше советов» Нажмите, для открытия спойлера | Press to open the spoiler «
Windows XP продолжила тенденцию по увеличению количества советов на синем экране. Информация по поводу того, какая из программ стала причиной проблемы, всё ещё была туманной, но, по крайней мере, она выдавала какие-то коды, которые можно было поискать в Google. Остальная часть экрана была заполнена всякими советами. Пользователю всё ещё рекомендовали выключить компьютер, но также советовали проверить, правильно ли установлены все программы, и давали ещё набор идей по поиску причин.
В Vista синий экран не сильно поменялся, но стал появляться чаще. Windows 7 уменьшила количество его появлений, но не поменяла его внешний вид.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Windows 8: грустный смайлик без подробностей» Нажмите, для открытия спойлера | Press to open the spoiler «
Windows 8 полностью поменяла BSoD. Текстовый экран, похожий на терминал, исчез, его заменили современные системные шрифты и огромный грустный смайлик в ASCII. Самое интересное, что почти вся информация о причинах проблемы исчезла, как и советы по поиску её решений.
Это уже не такая серьёзная проблема, как раньше, поскольку синие экраны сегодня встречаются гораздо реже. Можно выяснить причину падения ПК, проверив логи или использовав сторонние программы, собирающие такую информацию.
У Windows 10 экран выглядит так же.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Наследие синего экрана» Нажмите, для открытия спойлера | Press to open the spoiler «
Microsoft хотела бы, чтобы всё было по-другому, но по сей день синий экран смерти остаётся символом Windows. Этот факт вдохновил один из величайших офисных розыгрышей всех времён — хранитель экрана BSoD. Его сделала компания Sysinternals (которую Microsoft позже купила), и он заставляет любой компьютер выглядеть так, будто он завис, пока вы не нажмёте клавишу или не подёргаете мышкой. Очень смешно.
В macOS есть упоминание о BSoD. Каждый ПК в сети в программе Finder использует такую иконку:
Чтобы разглядеть её, её нужно сильно увеличить — но этот экран там есть уже более десяти лет.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Источник: geektimes
HugoBo-SS, 10.02.2019 - 17:49
Как в 1980-х люди скачивали игры с радио
Бристоль, 1983 год, июль, вечер понедельника. Ваши родители на первом этаже дома смотрят сериал «Coronation Street», а вы затаились в спальне, притворяясь, что делаете домашнюю работу. На самом же деле вы склонились над кассетным магнитофоном, держа пальцы над кнопками в нетерпеливом ожидании. По вашему телу пробегают мурашки от радости, когда вы слышите анонс по радио: «и вот момент, которого вы все ждали». Приятный щелчок раздаётся после одновременного нажатия клавиш «проигрывания» и «записи», и через несколько секунд комната наполняется странным металлическим скрежетом.
Вы слушаете шоу Datarama на Radio West и участвуете в первой попытке в Британии отправить компьютерную программу по местному радио.
» Нажмите, для открытия спойлера | Press to open the spoiler «
Джо Тозер, один из ведущих шоу, вспоминает, как всё начиналось: «Мне кажется, это был один из тех моментов озарения, когда я осознал, что раз программа для домашнего компьютера записана на аудиокассету, то почему бы не передать её по радио? Это показалось мне крутой идеей».
Sinclair Spectrum
Джо был одним из первых людей, прикоснувшихся к домашним компьютерам, он писал программы для компьютеров 6502 Tangerine’, ZX80 и BBC с 1979 года, и работал на радио Radio West в Бристоле с 1981. «В начале деятельности станция очень интересовалась нишевым контентом, — говорит Джо, — и совместно с главным инженером Тимом Лайонсом я предложил проводить еженедельное шоу, посвящённое домашним компьютерам, с уникальной особенностью, передачей программ с кассет, которые тогда использовались как накопители». Так родилась Datarama, но только в июле 1983 года, перед выходом четвёртого эпизода, программа получила добро от британского регулятора, IBA, на передачу компьютерных данных.
Переданное изображение Шерил Лэдд и её реальное фото
Так какую же программу Джо и Тим выбрали для передачи во время этой знаменательной программы? Мило, что они решили передать фотографию Шерил Лэдд, звезды сериала «Ангелы Чарли», взятую из журнала Evening Standard 1975 года. Джо прекрасно помнит момент, когда изображение лица Шерил полетело по всей Уэст-Кантри: «Это было очень волнующе. Я сам написал код для графики Шерил Лэдд, программа была маленькой, и её легко было написать для BBC и ZX81, и казалось удивительным, что изображения можно передавать по радио. Я думаю, что мы провели парочку тестовых передач без объявления, просто чтобы убедиться в работоспособности, и обнаружили, что AM для этого подходит лучше, чем FM. Вечером, когда мы распространили запись программы, всё сработало, и вот она появилась на экране – Шерил Лэдд в великолепном разрешении 40х80 пикселей в виде чёрно-белого телетекста».
Удивительно, что передать программу оказалось так же просто, как нажать кнопку воспроизведения на радио: «честно говоря, всё это было довольно просто, — говорит Джо. – Пропускная способность кассеты была предельно низкой, наверное, несколько сотен бит в секунду, поэтому всё просто сработало». Слушателям это очень понравилось, и вскоре Джо и Тим передавали всякие программы, написанные ими для шоу, включая небольшие игры, и приложения, превращавшие клавиатурный ввод в азбуку Морзе. Изначально они распространяли программы для BBC и ZX81, но позже расширили ассортимент, включив такие компьютеры, как Commodore, Dragon, FORTH, и «по сути, всё, что тогда было доступно».
Тим и Джо не знали, что всего в нескольких километрах от них, в Вустере, человек по имени Саймон Гудвин тоже экспериментировал с передачей компьютерных программ по радиоволнам. Саймон писал игры и статьи для журналов, посвящённых домашним компьютерам, с 1979 года, а в 1983 году его игра для Spectrum, «Gold Mine», вошла в список All Formats Top 20. Он также был одним из ведущих программы Computer Club на Radio Wyvern, и в декабре 1983 запрограммировал анимированную «рождественскую открытку» на BASIC для рассылки слушателям.
Открытку рассылали в двух вариантах, для Sinclair Spectrum и для Tandy TRS-80, вместе с музыкой и гарцующим оленем. Но могли ли слушатели её скачать? «У некоторых получилось, — говорит Саймон, — но не всем пытавшимся повезло. Особенно туго пришлось с TRS-80, этот формат был подвержен ошибкам (несмотря на то, что его скорость была в три раза меньше, чем у ZX). Один человек умудрился прочесть версию для TRS-80 на компьютере Nascom, очень сильно отличной системе, популярной в Британии в конце 1970-х, но для этого потребовалось весьма искусное программирование. „В отличие от Джо и Тима, Саймон обнаружил, что скачивать программы с FM, более высокой частоты, было проще, чем с AM“.
Tandy TRS-80
Саймону идея передачи рождественской открытки пришла в голову после того, как он прочёл статью в журнале Personal Computer World о голландской станции, передающей по радио текст в ASCII. Однако оказалось, что голландцы передавали компьютерные программы по радио гораздо раньше 1983: местное радиошоу Hobbyscope передавало код по радиоволнам ещё в 1980-м.
Hobbyscope действительно передавало программы весь 1980-й год, и создатели шоу даже придумали метод, позволявший не передавать одну и ту же программу много раз для каждой версии компьютера. Они использовали формат BASICODE, который можно было скачать на любую компьютерную систему, поддерживающую BASIC, нужно было только, чтобы пользователь сначала запустил транслятор.
Британия и Нидерланды оказались не единственными странами, жители которых наслаждались удивительной возможностью скачивать программы с радио: эта мания захватила всю Европу. В Финляндии Кай Лехтонен, вдохновившись голландскими передачами, попытался провернуть похожую операцию на общественной радиостанции YLE, и в 1985 году его команда успешно передала программу, которую смогли скачать на удалении в 600 км от станции.
Вероятно, самые большие энтузиасты скачивания программ жили в Сербии, которая тогда была частью Югославии. Зоран Модли, ведущий программы Ventilator 202 на Radio Belgrade, редактор компьютерного журнала Galaksija предложил передать программу для Spectrum по радиоволнам. Зоран вспоминает, как в первый раз осуществлял эту передачу: „Мы с моей командой были очень возбуждены. Мне нужно было сообщить техникам радио, дежурившим у удалённых передатчиков, что в течение нескольких минут они услышат только шипение и скрипы. Обычные люди были в недоумении: “Что там делает этот безумец?» Но слушатели, которые нас услышали и всё поняли, радостно звонили нам по телефону, чтобы сказать, что у них успешно получилось загрузить программу в компьютер!"
Зоран Модли с двумя членами команды в 1984
С 1983 по 1986 Зоран передал порядка 150 компьютерных программ, большую часть которых ему прислали его преданные слушатели. Туда входили программы для математических подсчётов, короткие образовательные программы, небольшие энциклопедии, простые игры и даже авиасимулятор. Передачи стали такими популярными, что национальное телевидение Белграда даже показывало их в своей воскресной программе «Воскресный день», поэтому каждые выходные в течение двух месяцев зрителям выдавали шумы и скрипы нолей и единичек.
Манию передачи данных по радио остановило лишь распространение дискет. В конце 80-х начали появляться 16-битные домашние компьютеры, аудиокассеты отошли в прошлое, и беспроводное скачивание программ вернулось только после распространения WiFi в XXI веке. И даже если аудиокассеты каким-то образом вновь станут использоваться в качестве накопителей, современные игры имеют такой гигантский объём, что для их передачи уйдёт гораздо больше, чем пара минут.
Как заключает сотрудник Codemasters Саймон Гудвин: «Если бы мы попробовали передать GRID для PS3, Windows или Xbox 360 в формате TRS-80, это заняло бы четыре года и потребовало бы кассеты длительностью в 2 млн секунд для записи результатов». Так что в следующий раз, расстраиваясь из-за низкой скорости скачивания игры, просто радуйтесь, что вам не приходится скачивать её по радио.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Источник: habr
HugoBo-SS, 28.12.2019 - 21:30
Процессорные войны. История синего зайца и красной черепахи
Современная история противостояния Intel и AMD на процессорном рынке ведёт свой отсчет еще со второй половины 90-х. Эпоха грандиозных преобразований и выхода в мэйнстрим, когда Intel Pentium позиционировался как универсальное решение, а Intel Inside стал чуть ли не самым узнаваемым слоганом в мире, ознаменовалась яркими страницами в истории не только синих, но и красных – начиная с поколения K6, AMD неустанно соперничали с Intel во многих сегментах рынка. Однако именно события чуть более позднего этапа – первой половины нулевых – и сыграли важнейшую роль в появлении легендарной архитектуры Core, до сих пор лежащей в основе процессорной линейки Intel.
Немного истории, истоков и революции
» Нажмите, для открытия спойлера | Press to open the spoiler «
Начало 2000-х годов во многом связывают с несколькими этапами в развитии процессоров – это и гонка за заветной частотой 1 ГГц, и появление первого двухъядерного процессора, и ожесточение борьбы за первенство в массовом десктопном сегменте. После безнадежного устаревания Pentium, и выхода на рынок Athlon 64 X2 Intel представила процессоры поколения Core, ставшие в итоге поворотной точкой в развитии индустрии.
Первые процессоры Core 2 Duo были анонсированы в конце июля 2006 года – более чем через год после выхода Athlon 64 X2. В работе над новым поколением Intel руководствовалась в первую очередь вопросами архитектурной оптимизации, добившись высочайших показателей энергоэффективности уже в первых поколениях моделей на базе архитектуры Core под кодовым названием Conroe – они превосходили Pentium 4 в полтора раза, и при заявленном теплопакете в 65 Вт стали, пожалуй, самыми энергоэффективными процессорами на рынке на тот момент. Выступая в роли догоняющей (что бывало нечасто), Intel реализовала в новом поколении поддержку 64-битных операций с архитектурой EM64T, новый набор инструкций SSSE3, а также обширный пакет технологий виртуализации на базе х86.
Помимо этого, одной из ключевых особенностей процессоров Conroe являлся объемный L2-кэш, влияние которого на общую производительность процессоров было весьма ощутимо уже тогда. Приняв решение разграничить сегменты процессоров, Intel отключила половину из 4 Мб L2-кэша для младших представителей линейки (Е6300 и Е6400), обозначив тем самым начальный сегмент. Тем не менее, технологические особенности Core (низкое тепловыделение и высокая энергоэффективность, связанные с использованием свинцового припоя) позволяли продвинутым пользователям добиваться невероятно высоких частот на передовых решениях системной логики – качественные материнские платы позволяли разгонять FSB-шину, увеличивая частоту младшего процессора вплоть до 3 ГГц и более (обеспечивая в сумме 60% прирост), благодаря чему удачные экземпляры Е6400 могли побороться со старшими браться Е6600 и Е6700, пусть и ценой значительных температурных рисков. Впрочем, даже скромный разгон позволял достичь серьезных результатов – в бенчмарках старшие процессоры без труда потеснили передовые Athlon 64 X2, обозначив позицию новых лидеров и народных любимцев.
Помимо этого, Intel запустила в производство настоящую революцию – четырехъядерные процессоры семейства Kentsfield с префиксом Q, построенные на тех же 65 нанометрах, но использующие структуру из двух чипов Core 2 Duo на одной подложке. Добившись максимально возможной энергоэффективности (платформа потребляла столько же, сколько и два используемых кристалла по отдельности), Intel впервые показала, насколько мощной может быть система с четырьмя потоками – в мультимедийных приложениях, архивации и тяжелых играх, активно использующих распараллеливание нагрузки на несколько потоков (в 2007 году таковыми были нашумевший Crysis и не менее знаковая Gears of War) разница в производительности с однопроцессорной конфигурацией могла составлять до 100%, что являлось невероятным преимуществом для любого покупателя системы на базе Core 2 Quad.
Как и в случае с линейкой Pentium, наиболее быстрые процессоры получили приставку Extreme с префиксом QX, и были доступны для энтузиастов и сборщиков OEM-систем по значительно более высокой цене. Венцом 65-нм поколения стал QX6850 с частотой в 3 ГГц и быстрой FSB-шиной, работающей на частоте в 1333 МГц. Этот процессор вышел в продажу по цене в 999 долларов.
Конечно же, такой оглушительный успех не мог не встретить конкуренции со стороны AMD, но красный гигант на то время еще не перешел к производству четырехъядерных процессоров, поэтому для противостояния новинкам от Intel была представлена экспериментальная платформа Quad FX, разработанная в сотрудничестве с NVidia, и получившая лишь одну серийную модель материнской платы ASUS L1N64, рассчитанную на использование двух процессоров Athlon FX X2 и Opteron.
Платформа оказалась любопытной технической инновацией в мейнстриме, однако масса технических условностей, огромное энергопотребление и посредственная производительность (в сравнении с моделью QX6700) не позволили платформе успешно побороться за верхний сегмент рынка – Intel одержала верх, а процессоры Phenom FX, располагающие четырьмя ядрами, появились у красных лишь в ноябре 2007 года, когда конкурент уже был готов сделать следующий шаг.
Линейка Penryn, которая по своей сути являлось так называемым die-shrink (уменьшением размеров кристалла) 65-нм чипов из 2007 года, дебютировала на рынке уже 20 января 2008 года с процессоров Wolfdale – всего через 2 месяца после выхода Phenom FX от AMD. Переход на 45-нм техпроцесс с использованием новейших диэлектриков и материалов производства позволил расширить горизонты архитектуры Core еще дальше. Процессоры получили поддержку SSE4.1, поддержку новых особенностей энергосбережения (вроде Deep Power Down, едва ли не обнуляющую энергопотребление в состоянии гибернации на мобильных версиях процессоров), а также стали значительно холоднее – в некоторых тестах разница могла достигать 10 градусов по сравнению с прежней серией Conroe. Прибавив в частоте и производительности, а также получив дополнительный L2-кэш (для Core 2 Duo его объем вырос до 6 Мб), новые процессоры Core закрепили лидирующие позиции в бенчмарках, и подготовили почву для дальнейшего витка ожесточенной конкуренции, и начала новой эпохи. Эпохи невиданного успеха, эпохи стагнации и затишья. Эпохи процессоров Core i.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Шаг вперед и ноль назад. Первое поколение Core i7
» Нажмите, для открытия спойлера | Press to open the spoiler «
Уже в ноябре 2008 года Intel представила новую архитектуру Nehalem,ознаменовавшую выход первых процессоров из серии Core i, прекрасно знакомую каждому пользователю сегодня. В отличие от хорошо знакомой Core 2 Duo, архитектура Nehalem изначально предусматривала нахождение четырех физических ядер на одном кристалле, а также ряд архитектурных особенностей, известных нам по техническим новинкам от AMD – это и интегрированный контроллер памяти, и разделяемый кэш третьего уровня, и QPI-интерфейс, заменяющий HyperTransport.
С переносом контроллера памяти под крышку процессора Intel была вынуждена перестроить всю структуру кэша, сократив объем кэш-памяти L2 в пользу объединенного L3, объемом в 8 Мб. Впрочем, такой шаг позволил значительно сократить число запросов, а сокращение кэша L2 до 256 Кб на ядро оказалось эффективным решением с точки зрения скорости работы с многопоточными вычислениями, где основная часть нагрузки адресовалась на общий L3-кэш.
Помимо реструктуризации кэша, в Nehalem Intel сделала шаг вперед, обеспечив процессорам поддержку DDR3 на частотах 800 и 1066 МГц (впрочем, первые стандарты были далеко не предельными для этих процессоров), и избавившись от поддержки DDR2 в отличие от AMD, использовавшую принцип обратной совместимости в процессорах Phenom II, доступных как на AM2+, так и на новых AM3-сокетах. Сам контроллер памяти в Nehalem мог работать в одном из трех режимов с расчётом на один, два или же три канала памяти на 64, 128 или 192-битной шине соответственно, благодаря чему производители материнских плат размещали на текстолите до 6 DIMM разъемов памяти DDR3. Что касается QPI-интерфейса, то он сменил уже устаревшую FSB-шину, увеличив пропускную способность платформы по меньшей мере вдвое – что было особенно удачным решением с точки зрения повышения требований к частотам памяти.
Вернулся в Nehalem и порядком подзабытый Hyper-Threading, наделив четыре мощных физических ядра восьмью виртуальными потоками, и дав начало «тому самому SMT». Фактически, HT был реализован еще в Pentium, однако с тех самых пор о нем в Intel не вспоминали до текущего момента.
Еще одной технической особенностью первого поколения Core i была собственная частота работы контроллеров кэша и памяти, настройка которых предусматривала изменение нужных параметров в BIOS – Intel рекомендовала удваивать значение частоты памяти для оптимальной работы, однако даже такая мелочь могла стать проблемой для части пользователей, особенно при разгоне QPI-шины (она же шина BCLK), ведь разблокированный множитель получил лишь немыслимо дорогой флагман линейки i7-965 с припиской Extreme Edition, а 940 и 920 имели фиксированную частоту с множителем 22 и 20 соответственно.
Nehalem стал больше и физически (размеры процессора по сравнению с Core 2 Duo несколько увеличились из-за переноса контроллера памяти под крышку) и виртуально.
Благодаря «умному» мониторингу системы питания контроллер PCU (Power-Control Unit) вместе с Turbo-режимом позволял получить чуть больше частоты (а, следовательно, и производительности) даже без ручной настройки, ограничиваясь лишь паспортными значениями в 130 Вт. Правда, во многих случаях эту границу можно было несколько отодвинуть изменением настроек BIOS, получив дополнительные 100-200 МГц.
Итого архитектура Nehalem могла предложить многое – значительный прирост мощности в сравнении с Core 2 Duo, многопоточную производительность, мощные ядра и поддержку новейших стандартов.
С первым поколением i7 связано одно непонимание, а именно – присутствие двух сокетов LGA1366 и LGA1156 с одними и теми же (на первый взгляд) Core i7. Тем не менее, два набора логики были обусловлены не прихотью жадной корпорации, а переходом к архитектуре Lynnfield, следующему шагу в развитии линейки процессоров Core i.
Что же до конкуренции со стороны AMD, то красный гигант не спешил переходить на новую революционную архитектуру, спеша угнаться за темпами Intel. Используя старую-добрую K10, в компании выпустили Phenom II, ставший переходом на 45-нм техпроцесс первого поколения Phenom без каких-либо существенных архитектурных изменений.
Благодаря уменьшению площади кристалла AMD смогли использовать дополнительное пространство для размещения внушительного L3-кэша, который по своей структуре (как и общая компоновка элементов на кристалле) примерно соответствует наработкам Intel с Nehalem, но имеет ряд недостатков, обусловленных стремлением к экономии и обратной совместимости со стремительно стареющей платформой AM2.
Исправив недочеты в работе Cool’n’Quiet, практически не функционирующей в первом поколении Phenom, AMD выпустила две ревизии Phenom II, первая из которых была адресована пользователям на старых чипсетах из поколения AM2, а вторая – для обновленной платформы AM3 с поддержкой памяти DDR3. Именно желание сохранить поддержку новых процессоров на старых материнских платах и сыграло с AMD злую шутку (которая, впрочем, еще повторится в будущем) – из-за особенностей платформы в виде медленного северного моста новые Phenom II X4 не могли работать на ожидаемой частоте uncore-шины (контроллера памяти и L3-кэша), потеряв еще некоторую долю производительности в первой ревизии.
Тем не менее, Phenom II вышел доступным и достаточно производительным, чтобы показать результаты на уровне предыдущего поколения Intel – а именно Core 2 Quad. Конечно же, это означало лишь то, что с Nehalem в AMD конкурировать были не готовы. Совсем.
А потом прибыл Westmere…
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Westmere. Дешевле, чем у AMD, быстрее, чем у Nehalem
» Нажмите, для открытия спойлера | Press to open the spoiler «
Преимущества Phenom II, представленного красным гигантом в качестве бюджетной альтернативы Q9400, крылись в двух вещах. Первая – очевидная совместимость с платформой AM2, которую приобрело множество поклонников недорогих компьютеров во времена выхода первого поколения Phenom. Вторая – вкусная цена, с которой не могли поспорить ни дорогостоящие i7 9хх, ни более доступные (но уже невыгодные) процессоры серии Code 2 Quad. AMD делала ставку на доступность для самого широкого круга пользователей, неискушенных геймеров и экономных профессионалов, но у Intel уже был план того, как побить все карты красного чипмейкера одной левой.
В его основе лежал Westmere – следующий архитектурный этап развития Nehalem (ядра Bloomfield), зарекомендовавших себя среди энтузиастов и тех, кто предпочитает брать самое лучшее. На этот раз Intel отказалась от дорогостоящих комплексных решений – новый набор логики на базе сокета LGA1156 лишился QPI-контроллера, получив архитектурно упрощенный DMI, обзавелся двухканальным контроллером памяти DDR3, а также в очередной раз переадресовал часть функций под крышку процессора – на этот раз им стал PCI-контроллер.
Несмотря на то, что визуально новые Core i7-8хх и Core i5-750 идентичны по размерам Core 2 Quad, благодаря переходу на 32 нм кристалл оказался даже больше по размеру, чем у Nehalem – принеся в жертву дополнительные выходы QPI и объединив блок стандартных I/O портов, инженеры Intel интегрировали PCI-контроллер, который занимает 25% площади кристалла и был призван сократить до минимума задержки по работе с GPU, ведь дополнительные 16 линий PCI никогда не были лишними.
В Westmere был доработан и Turbo-режим, построенный по принципу «больше ядер – меньше частоты», использованному в Intel до сих пор. По логике инженеров, ограничение в 95 Вт (а именно столько было положено потреблять обновленному флагману) достигалось в прошлом далеко не всегда из-за упора на разгон всех ядер в любой ситуации. Обновленный режим позволял применять «умный» разгон, дозируя частоты таким образом, что при использовании одного ядра остальные отключались, освобождая дополнительное питание для разгона задействованного ядра. Таким нехитрым образом и получилось, что при разгоне одного ядра пользователь достигал максимальной тактовой частоты, при разгоне двух – уже меньшей, а при разгоне всех четырех – незначительной. Так Intel обеспечила максимальное быстродействие в большинстве игр и приложений, использующих один или два потока, сохранив энергоэффективность, о которой AMD тогда могла только мечтать.
Существенно доработан был и Power Control Unit, отвечающий за распределение питания между ядрами и другими модулями на кристалле. Благодаря усовершенствованию техпроцесса и инженерным доработкам материалов, Intel смогла создать практически идеальную систему, в которой процессор, пребывая в idle-состоянии, способен практически не потреблять питания ВООБЩЕ. Примечательно, что достижение подобного результата не связано с архитектурными изменениями – блок PSU-контроллера перекочевал под крышку Westmere без каких-либо изменений, и лишь повышение требований к материалам и общему качеству позволили сократить до нуля (или почти до нуля) токи утечек из отключенных ядер процессора и сопутствующих им модулей в idle-состоянии.
Разменяв трехканальный контроллер памяти на двухканальный, Westmere мог потерять часть производительности, но благодаря повышенной частоте памяти (1066 у мейнстримных Nehalem, и 1333 у героя этой части статьи) новый i7 не только не потерял в производительности, но и в некоторых моментах оказался быстрее процессоров Nehalem. Даже в приложениях, которые не используют все четыре ядра, i7 870 оказался практически идентичен старшему собрату благодаря преимуществу в частоте DDR3.
Игровая производительность обновленного i7 была практически идентична лучшему решению прошлого поколения – i7 975, который обходился вдвое дороже. При этом младшее решение балансировало на грани с Phenom II X4 965 BE, иногда опережая его уверенно, а иногда – лишь немного.
Но цена была именно тем вопросом, который смущал всех поклонников Intel – и решение в виде невероятных $199 за Core i5 750 устроила всех, как нельзя лучше. Да, режима SMT здесь не было, но мощные ядра и отличная производительность позволили не только обойти флагманский процессор AMD, но и сделать это гораздо дешевле.
Для красных настали темные времена, но у них был козырь в рукаве — к выходу готовился процессор нового поколения AMD FX. Правда и Intel не пришли безоружными.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Рождение легенды и великая битва. Sandy Bridge vs AMD FX
» Нажмите, для открытия спойлера | Press to open the spoiler «
Оглядываясь на историю взаимоотношений двух гигантов, становится очевидно, что именно период 2010-2011 года был связан с самыми невероятными ожиданиями для AMD, и неожиданно успешными решениями для Intel. Хотя обе компании рисковали, презентуя совершенно новые архитектуры, для красных анонс следующего поколения мог стать губительным, тогда как Intel, в общем-то, сомнений не испытывала.
Если Lynnfield был масштабной работой над ошибками, то Sandy Bridge вернул инженеров к чертежной доске. Переход на 32 нм ознаменовал создание монолитного базиса, уже ничуть не похожего на раздельную компоновку, использованную в Nehalem, где два блока по два ядра делили кристалл на две части, а вторичные модули располагались по сторонам. В случае с Sandy Bridge Intel создали монолитную компоновку, где ядра располагались единым блоком, используя общий L3-кэш. Был полностью переработан исполнительный конвейер, формирующий pipeline задачи, а высокоскоростная кольцевая шина обеспечивала минимальные задержки при работе с памятью и, как следовательно, высочайшую производительность в любых задачах.
Появилась под крышкой и интегрированная графика, которая занимает по площади все те же 20% кристалла – впервые за долгие годы Intel решила серьезно заняться встроенным GPU. И хотя по меркам серьезных дискретных карт такой бонус не является чем-то значительным, то самые скромные графические карты Sandy Bridge вполне могли бы оказаться ненужными. Но несмотря на отведенные под графический чип 112 миллионов транзисторов, в Sandy Bridge инженеры Intel сделали ставку на увеличение производительности ядер без увеличения площади кристалла, что на первый взгляд не является простой задачей — кристалл третьего поколения всего на 2 мм2 больше, чем некогда был у Q9000. Удалось ли инженерам Intel совершить невероятное? Сейчас ответ кажется очевидным, но давайте сохраним интригу. Скоро мы к этому вернёмся.
Помимо совершенно новой архитектуры Sandy Bridge стал еще и самой масштабной линейкой процессоров в истории Intel. Если во времена Lynnfield синие представили 18 моделей (11 для мобильных ПК и 7 для десктопов), то теперь их ассортимент увеличился до 29 (!) SKU всех возможных профилей. Настольные ПК на релизе получили 8 из них – от i3-2100 до i7-2600k. Иными словами – были покрыты все сегменты рынка. Самый доступный i3 предлагали за $117, а флагман обходился в $317, что по меркам прежних поколений было невероятно дешево.
В маркетинговых презентациях Intel называли Sandy Bridge «вторым поколением процессоров линейки Core», хотя технически до него таких поколений было три. Свою логику синие объяснили нумерацией процессоров, в которых цифра после обозначения i* приравнивалась к поколению – именно по этой причине многие до сих пор полагают, что Nehalem был единственной архитектурой первого поколения i7.
Первым в истории Intel Sandy Bridge получил и именование разблокированных процессоров – букву К в названии модели, означающую свободный множитель (как это любила делать AMD сначала в процессорах серии Black Edition, а затем и вовсе повсеместно). Но, как и в случае с SMT, доступна такая роскошь была лишь за дополнительную плату и исключительно на нескольких моделях.
Помимо классической линейки в арсенале Sandy Bridge были и процессорами с приписками T и S, ориентированные на сборщиков компьютеров и портативные системы. Ранее этот сегмент в Intel всерьез не рассматривали.
С изменениями в работе множителя и шины BCLK Intel заблокировала возможность разгона моделей Sandy Bridge без индекса K, прикрыв таким образом лазейку, прекрасно работающую еще в Nehalem. Отдельной сложностью для пользователей стала система «ограниченного разгона», позволявшая выставлять значение частоты Turbo для процессора, лишенного прелестей разблокированной модели. Принцип работы повышения частоты «из коробки» остался неизменным с Lynnfield – при использовании одного ядра система выдает максимально доступную (с учетом охлаждения) частоту, а если процессор полностью загружен, то разгон будет существенно ниже, но по всем ядрам.
Ручной разгон разблокированных моделей, напротив, вошел в историю благодаря тем цифрам, которые позволял достигать Sandy Bridge даже в паре с простейшим комплектным кулером. 4.5 ГГц без трат на охлаждение? Прежде так высоко еще никто не прыгал. Не говоря уже о том, что даже 5 ГГц были уже достижимы с точки зрения разгона при наличии адекватного охлаждения.
Вместе с архитектурными новшествами Sandy Bridge сопровождали и технические новинки – новая платформа LGA1155, снабженная поддержкой SATA 6 Гб/с, появление UEFI-интерфейса для BIOS, и другие приятные мелочи. Обновленная платформа получила нативную поддержку HDMI 1.4а, Blu-Ray 3D и DTS HD-MA, благодаря чему в отличие от десктопных решений на базе Westmere (ядра Clarkdale) Sandy Bridge не испытывал неприятных сложностей при выводе видео на современные телевизоры и воспроизведении фильмов при частоте 24 кадров, что несомненно порадовало любителей домашних кинотеатров.
Впрочем, еще лучше дела обстояли с программной точки зрения, ведь именно с выходом Sandy Bridge Intel представили свою известную технологию декодирования видео ресурсами CPU – Quick Sync, показавшую себя лучшим решением при работе с видео. Игровая производительность Intel HD Graphics, конечно же, не позволяла заявить о том, что нужда в видеокартах теперь в прошлом, однако и сама Intel справедливо отмечала, что для GPU стоимостью в 50 долларов и меньше их графический чип может стать серьезным конкурентом, что было недалеко от правды – на время выхода Intel демонстрировала производительность графического ядра 2500k на уровне HD5450 – наиболее доступной графической карты AMD Radeon.
Intel Core i5 2500k считается, пожалуй, самым народным процессором. Это неудивительно, ведь благодаря разблокированному множителю, припою под крышкой и небольшому тепловыделению он стал настоящей легендой в среде оверклокеров.
Игровая производительность Sandy Bridge вновь подчеркнула тренд, заданный Intel в предыдущем поколении – предложить пользователю производительность уровня лучших решений Nehalem, стоивших по 999$. И у синего гиганта всё получилось – за скромную сумму в чуть более чем 300 долларов пользователь получал производительность, сравнимую с i7 980X, что еще полгода назад казалось немыслимым. Да, новые горизонты производительности не покорились третьему (или второму?) поколению процессоров Core, как это было с Nehalem, но значительное удешевление заветных топ-решений позволило стать поистине «народным» выбором.
Кажется, настало самое время для дебюта AMD с их новой архитектурой, однако дожидаться появления настоящего конкурента пришлось несколько дольше – с триумфальным релизом Sandy Bridge в арсенале красного гиганта присутствовала лишь немного расширенная линейка Phenom II, дополненная решениями на ядрах Thuban – небезызвестными шестиядерными процессорами X6 1055 и 1090T. Эти процессоры, несмотря на небольшие архитектурные изменения, могли похвастаться лишь возвращением технологии Turbo Core, в которой принцип настройки разгона ядер вновь вернулся к индивидуальной настройке каждого из них, как это было в оригинальных Phenom. Благодаря подобной гибкости стал возможен как наиболее экономичный режим работы (с падением частоты ядер в idle-режиме до 800 МГц), так и агрессивный производительный профиль (разгон ядер на 500 МГц выше заводской частоты). В остальном же Thuban ничем не отличался от младших братьев по серии, и два его дополнительных ядра служили скорее маркетинговой фишкой AMD, предлагавшей больше ядер за меньшие деньги.
Увы, большее число ядер отнюдь не означало большей производительности – в игровых тестах X6 1090T стремился к уровню младших Clarkdale, лишь в некоторых случаях оспаривая показатели i5 750. Низкая производительность на ядро, 125 Вт энергопотребления и другие классические недостатки архитектуры Phenom II, все еще пребывающей на 45 нм, не позволили красным навязать жесткую конкуренцию первому поколению Core и его обновленным собратьям. А с выходом Sandy Bridge актуальность X6 фактически сошла на нет, оставшись интересной лишь для узкого круга профессиональных пользователей-фанатов.
Громогласный ответ AMD на новинки от Intel последовал лишь в 2011 году, когда была представлена новая линейка процессоров AMD FX на архитектуре Bulldozer. Вспомнив о самой удачной серии своих процессоров, AMD не стала скромничать, и в очередной раз подчеркнула невероятные амбиции и планы на будущее – новое поколение обещало, как и прежде, больше ядер для десктопного рынка, инновационную архитектуру, и, конечно же, невероятную производительность в категории price-to-performance.
С точки зрения архитектуры Bulldozer выглядел смело – модульная компоновка ядер в четырех блоках на общем L3-кэше в идеальных условиях была призвана обеспечить оптимальную работу в многопоточных задачах и приложениях, однако из-за стремления сохранить совместимость со стремительно стареющей платформой AM2 в AMD решили сохранить под крышкой процессора контроллер северного моста, создав для себя одну из важнейших проблем на последующие годы.
Несмотря на 4 физических ядра, процессоры Bulldozer предлагались пользователям как восьмиядерные – это было связано с наличием двух логических ядер в каждом вычислительном блоке. Каждый из них мог похвастаться собственным массивным кэшем L2 в 2 Мб, декодером, буфером инструкций в 256 Кб и блоком выполнения операций с плавающей запятой. Такое разделение функциональных частей позволило обеспечивать обработку данных в восемь потоков, подчеркивая акценты новой архитектуры на обозримое будущее. Bulldozer получил поддержку SSE4.2 и AESNI, а один FPU-блок на каждое физической ядро стал способен выполнять 256-битные AVX-инструкции.
К несчастью для AMD, Intel уже представила Sandy Bridge, поэтому требования к процессорной части серьезно возросли. По цене значительно ниже X6 1090T средний пользователь мог приобрести великолепный i5 2500k, получив производительность уровня лучших предложений прошлого поколения, и красным необходимо было поступить также. Увы, реалии времен релиза имели на этот счет свое мнение.
Уже 6 ядер старших Phenom II были наполовину свободны в большинстве случаев, что уж говорить о восьми потоках AMD FX – из-за специфики подавляющего большинства игр и приложений, использующих 1-2 потока, изредка до 4 потоков, новинка красного лагеря оказалась лишь чуть быстрее предыдущих Phenom II, безнадежно уступив 2500k. Несмотря на некоторое преимущество в профессиональных задачах (к примеру, в архивации данных), флагманский FX-8150 оказался неинтересен потребителю, уже ослепленному мощью i5 2500k. Революции не случилось, а история не повторилась. Стоит упомянуть о встроенном синтетическом тесте WinRAR, который был многопоточным, в то время как в реальной работе архиватор полноценно использовал только два потока.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Еще один мост. Ivy Bridge или пребывая в ожидании
» Нажмите, для открытия спойлера | Press to open the spoiler «
Пример AMD стал показательным во многих вещах, но в первую очередь подчеркнул необходимость создания некоего базиса, на котором можно выстроить успешную (во всех отношениях) процессорную архитектуру. Именно так в эпоху K7/K8 AMD стали лучшими из лучших, и именно благодаря тем же постулатам их место заняла Intel с выходом Sandy Bridge.
Архитектурные изыски оказались ни к чему, когда в руках синих появилась беспроигрышная комбинация – мощные ядра, умеренный TDP и отработанный формат платформы на кольцевой шине, невероятно быстрой и эффективной для любых задач. Теперь оставалось лишь закрепить успех, использовав все, что было прежде – и именно таким успехом и стал переходный Ivy Bridge, третье (как заявляет Intel) поколение процессоров Core.
Пожалуй, самым значительным изменением с точки зрения архитектуры стал переход Intel на 22 нм – не скачок, но уверенный шаг к уменьшению размера кристалла, который вновь оказался меньше предшественника. К слову, размер кристалла процессора AMD FX-8150 при старом техпроцессе 32 нм составлял 315 мм2, в то время как у процессора Intel Core i5-3570 имел размер более чем вдвое меньший: 133 мм2.
На этот раз Intel вновь сделала ставку на бортовую графику, и отвела под неё больше места на кристалле – правда, лишь немногим больше. Остальная топология кристалла изменений не претерпела – все те же четыре блока ядер с общим блоком L3-кэша, контроллером памяти и контроллером системных I/O. Можно сказать, схема выглядит пугающе идентичной, но в этом и была суть платформы Ivy Bridge – сохранить лучшее от Sandy, при этом добавив плюсов в общую копилку.
Благодаря переходу на более тонкий техпроцесс Intel смогла снизить общее энергопотребление процессоров до 77 Вт – с 95 на предыдущем поколении. Тем не менее, надежды на еще более выдающиеся результаты в разгоне не оправдалась – из-за капризной натуры Ivy Bridge достижение высоких частот требовало бОльших напряжений, чем в случае с Sandy, поэтому ставить рекорды на этом семействе процессоров особенно не спешили. Также не лучшую роль для разгона сыграла замена термоинтерфейса между термораспределительной крышкой процессора и его кристаллом с припоя на термопасту.
К счастью для владельцев предыдущего поколения Core, сокет изменений не претерпел, и новый процессор можно было без труда установить в прежнюю материнскую плату. Тем не менее, новые наборы логики предлагали такие изыски, как поддержка USB 3.0, поэтому пользователи, следящие за технологическими новинками, наверняка поспешили приобрести новую плату на Z-чипсете.
Общая производительность Ivy Bridge выросла не столь значительно, чтобы назвать это очередной революцией, а скорее последовательно. В профессиональных задачах 3770k показывал результаты, сравнимые с профессиональными процессорами X-серии, а в играх опережал бывших фаворитов 2600k и 2700k с разницей около 10%. Кто-то сочтет это недостаточным для апгрейда, но Sandy Bridge не просто так считается одним из самых долгоиграющих процессорных семейств в истории.
Наконец, даже самые экономные пользователи ПК-гейминга смогли почувствовать себя на передовой – Intel HD Graphics 4000 оказалась значительно быстрее предыдущего поколения, показав средний прирост в 30-40%, а также получив поддержку DirectX 11. Теперь можно было играть в популярные игры на средне-низких настройках, получая неплохую производительность.
Подводя итоги, можно сказать, что Ivy Bridge стал приятным дополнением для семейства Intel, избежав всевозможных рисков от архитектурных излишеств, и следуя принципу «тик-так», от которого синие впоследствии не отходили вовсе. Красные же предприняли попытку провести масштабную работу над ошибками в виде Piledriver– нового поколения в старом обличии.
Устаревшие 32 нм не позволяли AMD вершить еще одну революцию, поэтому Piledriver был призван скорректировать недочеты Bulldozer, уделив внимание наиболее слабым сторонам архитектуры AMD FX. Ядра Zambezi сменили Vishera, в которые легли некоторые доработки из решений на базе Triniti — мобильных процессоров красного гиганта, но TDP осталось неизменным – 125 Вт для флагманской модели с индексом 8350. Структурно он был идентичен старшему брату, однако архитектурные доработки и увеличение частоты на 400 МГц позволили наверстать упущенное.
Рекламные слайды AMD в преддверии выхода Bulldozer обещали поклонникам марки по 10-15% прироста производительности от поколения к поколению, но выход Sandy Bridge и огромный скачок вперед не позволил назвать эти обещания слишком амбициозными – теперь на прилавках уже лежали Ivy Bridge, отодвинувшие верхнюю границу порога производительности еще дальше. Чтобы не допустить ошибку снова, AMD представили Vishera в качестве альтернативы бюджетной части линейки Ivy Bridge – 8350 стал противопоставляться i5-3570K, что было обусловлено не только осторожностью красных, но и ценовой политикой компании. Флагманский Piledriver стал доступен публике за 199$, что сделало его дешевле потенциального конкурента – впрочем, сказать того же о производительности однозначно не получалось.
Профессиональные задачи стали для FX-8350 наиболее ярким местом раскрытия потенциала – ядра работали максимально быстро, и в некоторых случаях новинка от AMD опережала даже 3770k, но там, куда смотрело большинство пользователей (игровая производительность), процессор показывал результаты, схожие с i7-920, а в лучшем случае не слишком отставал от 2500k. Впрочем, такое положение вещей никого не удивило – 8350 был на 20% производительнее 8150 в тех же задачах, при этом TDP остался без изменений. Работа над ошибками удалась – пусть и не так ярко, как многим бы хотелось.
Мировой рекорд разгона процессора AMD FX 8370 был достигнут финским оверклокером The Stilt в августе 2014 года. Ему удалось разогнать кристалл до 8722,78 МГц.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Haswell: Слишком хорошо, чтобы снова быть правдой
» Нажмите, для открытия спойлера | Press to open the spoiler «
Архитектурный путь Intel, как уже можно было заметить, нашел свою золотую середину – придерживаться отработанной схемы в построении успешной архитектуры, занимаясь доработками по отношению ко всем аспектам. Sandy Bridge стал родоначальником эффективной архитектуры на базе кольцевой шины и объединенного блока ядер, Ivy Bridge доработал её с точки зрения начинки и питания, а Haswell стал своего рода продолжением предшественника, обещая новые стандарты качества и производительности.
Архитектурные слайды презентации Intel мягко намекали на то, что архитектурная часть останется без изменений. Доработки коснулись лишь некоторых деталей в формате оптимизации – добавились новые порты для диспетчера задач, был оптимизирован кэш L1 и L2, а также TLB-буфер в последнем. Нельзя не отметить доработки PCB-контроллера, отвечающего за работу процесса в различных режимах и сопутствующих затратах питания. Проще говоря, в состоянии покоя Haswell стал куда экономичнее Ivy Bridge, однако об общем сокращении TDP речи не шло.
Продвинутые материнские платы с поддержкой высокоскоростных модулей DDR3 обеспечили энтузиастам немного радости, однако с точки зрения разгона все оказалось печально – результаты Haswell были даже хуже прошлого поколения, и во многом это было связано с переходом на другие термоинтерфейсы, о коих сейчас не шутит только ленивый. Плюсы в производительности получила и встроенная графика (что обусловлено все большими акцентами на мир портативных ноутбуков), но на фоне отсутствия видимого роста IPC Haswell окрестили «Хасфейлом» за жалкие 5-10% прироста производительности в сравнении с предыдущим поколением. Вкупе с производственными проблемами это привело к тому, что Broadwell – следующее поколение Intel – превратилось в практически несуществующий миф, потому как его релиз на мобильные платформы и пауза в целый год негативно сказались на общем восприятии пользователей. Чтобы хотя бы как-то исправить положение, Intel выпустила Haswell Refresh, также известный как Devil Canyon – правда, вся его суть заключалась в наращивании базовых частот процессоров Haswell (4770k и 4670k), поэтому посвящать ему отдельный раздел мы не будем.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Broadwell-H: Еще экономичнее, еще быстрее
» Нажмите, для открытия спойлера | Press to open the spoiler «
Большая пауза в выходе Broadwell-H была обусловлена сложностями, связанными с переходом на новый техпроцесс, однако, если углубляться в архитектурный анализ, становится очевидно, что быстродействие процессоров Intel достигло уровня, недостижимого для конкурентов из AMD. Но это не означает, что красные тратили время впустую – благодаря инвестициям в APU решения на базе Kaveri пользовались немалым спросом, а старшие модели серии A8 могли легко дать фору любой встроенной графике от синих. Судя по всему, такое положение вещей Intel решительно не устраивало – и поэтому в архитектуре Broadwell-H особое место заняло графическое ядро Iris Pro.
Вкупе с переходом на 14 нм размер кристалла Broadwell-H фактически остался прежним – но более компактная компоновка позволила еще больше сосредоточиться на наращивании графической мощности. В конце концов, именно на ноутбуках и в мультимедиа-центрах Broadwell обрел первое пристанище, поэтому такие инновации, как поддержка аппаратного декодирования HEVC (H.265) и VP9 выглядят более чем резонно.
Отдельного упоминания заслуживает кристалл eDRAM, занявший отдельное место на подложке кристалла и ставший своеобразным скоростным буфером данных – кэшем L4 – для ядер процессора. Производительность которого позволила рассчитывать на серьезный шаг вперед в профессиональных задачах, особо чувствительных к скорости обработки кэшированных данных. Контроллер eDRAM занял место на основном кристалле процессора, — им инженеры заместили пространство, ставшее свободным после перехода на новый техпроцесс.
eDRAM был интегрирован и для ускорения работы бортовой графики, выступая в роли быстрого кэша кадров – при объеме в 128 Мб его возможности позволяют серьезно упростить работу бортовому GPU. По сути именно в честь eDRAM-кристалла к названию процессора присоединилась буква C – в Intel технологию скоростного кэширования данных на кристалле назвали Crystal Wall.
Частотные характеристики новинки, как ни странно, стали значительно скромнее Haswell – старший 5775С имел базовую частоту в 3.3 ГГц, но при этом мог похвастаться разблокированным множителем. С уменьшением частот сократился и TDP – теперь он составлял всего 65 Вт, что для процессора подобного уровня, пожалуй, лучшее достижение, ведь быстродействие осталось неизменным.
Несмотря на скромный (по меркам Sandy Bridge) разгонный потенциал, Broadwell-H удивил своей энергоэффективностью, оказавшись самым экономичным и холодным среди конкурентов, а бортовая графика опередила даже решения из семейства AMD A10, показав, что ставка на графическое ядро под крышкой оправдалась.
Важно помнить, что Broadwell-H оказался настолько промежуточным, что уже через полгода были представлены процессоры на базе архитектуры Skylake, который стал уже шестым поколением в семействе Core.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Skylake – Время революций давно прошло
» Нажмите, для открытия спойлера | Press to open the spoiler «
Как ни странно, со времен Sandy Bridge минуло уже множество поколений, но ни одно из них не смогло потрясти публику чем-то невероятным и инновационным, за исключением, наверное, Broadwell-H – но там речь шла скорее о невиданном скачке в графической части и её производительности (в сравнении с APU от AMD), а не об огромных прорывах в производительности. Времена Nehalem, безусловно, ушли, и уже не вернутся, но Intel продолжала по маленьким шажочкам идти вперед.
Архитектурно Skylake был перекомпонован, и горизонтальное расположение вычислительных блоков сменила классическая квадратная компоновка, в которой ядра разделяет shared-LLC кэш, а слева расположилось производительное графическое ядро.
Из-за технических особенностей контролер eDRAM теперь расположился в зоне блока управления I/O в качестве дополнения к модулю управления вывода изображения для того, чтобы обеспечить наилучшее качество передачи картинки с встроенного графического ядра. Из-под крышки пропал встроенный регулятор напряжения, использовавшийся в Haswell, была обновлена шина DMI, а благодаря соблюдению принципа обратной совместимости процессоры Skylake поддерживали как DDR4, так и DDR3 память – для них был разработан новый стандарт SO-DIMM DDR3L, функционирующий на низких напряжениях.
При этом нельзя не заметить, как много внимания Intel уделяет рекламе очередного поколения бортовой графики – в случае со Skylake оно было уже шестое в линейке синих. Особую гордость Intel питает к приросту производительности, который был особенно показателен в случае с Broadwell, но и на этот раз обещает особо экономным геймерам высочайший уровень производительности и поддержку всех современных API, включая DirectX 12. Графическая подсистема является частью так называемой System on Chip (SOC), которую Intel также активно продвигала в качестве примера удачного архитектурного решения. Но если вспомнить, что интегрированный контроллер напряжения исчез, а подсистема питания целиком полагается на VRM материнской платы, до полноценного SOC, конечно, в Skylake еще не добрались. Про интегрирование микросхемы южного моста под крышку речи не идет вовсе.
Тем не менее, SOC здесь играет роль посредника, своегобразного «мостика» между графическим чипом Gen9, ядрами процессора и системным контроллером I/O, отвечающим за взаимодействие компонентов с процессором и обработку данных. При этом значительный акцент в Intel поставили на энергоэффективность и массу мер, предпринятых Intel в борьбе за потребление меньшего числа Вт – в Skylake предусмотрены различные «power gate» (назовем их состояниями питания) для каждого участка SOC, включая высокоскоростную кольцевую шину, графическую подсистему и контроллер медиа. Прежняя система контроля питания фаз процессора на базе P-state эволюционировала в технологию Speed Shift, обеспечивающую как динамическое переключение между различными фазами (например, при выходе из спящего режима в процессе активной работы или запуске тяжелой игры после легкого серфинга), так и балансировку затрат питания между активными блоками CPU для достижения наивысшей эффективности в рамках TDP.
Из-за редизайна, связанного с исчезновением контроллера питания, Intel была вынуждена перенести Skylake на новый сокет LGA1151, для которого на релизе были выпущены материнские платы на чипсете Z170, получившие поддержку 20 линий PCI-E 3.0, один порт USB 3.1 Type A, увеличенное число портов USB 3.0, поддержку eSATA и M2-накопителей. В качестве памяти была заявлена поддержка модулей DDR4 с частотой до 3400 МГц.
Что же до производительности, то никаких потрясений выход Skylake не ознаменовал. Ожидаемый прирост производительности в размере пяти процентов в сравнении с Devil Canyon оставил многих фанатов в недоумении, но и по слайдам презентации Intel было понятно, что основной упор был сделан на энергоэффективность и гибкость новой платформы, способной подойти как для экономичных micro-ITX систем, так и для передовых игровых платформ. Пользователи, ожидавшие прыжок вперед уровня Sandy Bridge Skylake, были разочарованы, ситуация напоминала выход Haswell, дополнительно огорчал и выход нового сокета.
Теперь пришло время надеяться на Kaby Lake, ведь кто-кто, а он должен был стать тем самым…
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Kaby Lake. Пресное озеро и неожиданная краснота
» Нажмите, для открытия спойлера | Press to open the spoiler «
Несмотря на изначальную логику стратегии «тик-так» Intel, понимая отсутствие какой-либо конкуренции со стороны AMD, решилась расширить каждый цикл до трех этапов, в котором после внедрения новой архитектуры два последующих года идет доработка существующего решения под новым названием. Шагом в 14 нм стал Broadwell, следом за котором свет увидел Skylake, а Kaby Lake, соответственно, был призван показать наиболее совершенный технологический уровень в сравнении с предшествующим «Небеснозерском».
Основным отличием Kaby Lake от Skylake стало наращивание частот на 200-300 МГц – как в отношении базовой частоты, так и в отношении буста. Архитектурно никаких изменений новое поколение не получило – даже встроенная графика, несмотря на обновление маркировки, осталась прежней, зато Intel выпустила набор логики на базе нового Z270, в котором к функционалу предыдущего Sunrise Point добавились 4 линии PCI-E 3.0, а также поддержка технологии Intel Optane Memory для передовых устройств гиганта. Сохранились и независимые множители для компонентов платы, и другие особенности предыдущей платформы, а мультимедийные приложения получили функцию AVX Offset, позволяющую уменьшать частоты процессора при обработке AVX-инструкций для повышения стабильности работы на высоких частотах.
По производительности новинки седьмого поколения Core впервые оказались практически идентичными своим предшественникам – вновь уделив внимание оптимизации энергопотребления, в Intel совсем позабыли о новшествах в плане IPC. Тем не менее, в отличие от Skylake в новинке решили проблему экстремального нагрева при серьезных ступенях разгона, а также позволили почувствовать себя почти как во времена Sandy Bridge, разгоняя процессор до 4.8-4.9 ГГц при умеренном энергопотреблении и сравнительно низких температурах. Другими словами, разгон стал проще, а процессор – холоднее на 10-15 градусов, что можно назвать результатом той самой оптимизации, его завершающего цикла.
Никто не мог и догадываться, что AMD уже готовит настоящий ответ на многолетнее развитие Intel. Имя ему AMD Ryzen.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« AMD Ryzen – Когда все смеялись и никто не верил
» Нажмите, для открытия спойлера | Press to open the spoiler «
После того, как в 2012 году была представлена обновленная архитектура Bulldozer, Piledriver, AMD полностью ушли в другие направления процессорного рынка, выпустив несколько удачных линеек APU, а также другие экономичные и портативные решения. Тем не менее, о возобновлении борьбы за место под солнцем на настольных компьютерах в компании никогда не забывали, изображая немощь, но при этом работая над архитектурой Zen – настоящим новым решением, призванным возродить некогда утраченный дух соревнования на рынке CPU.
Для разработки новинки в AMD прибегли к помощи Джима Келлера – того самого «отца двух ядер», опыт работы которого привел красного гиганта к славе и признанию в начале 2000-х. Именно он совместно с другими инженерами разработал новую архитектуру, призванную быть быстрой, мощной и инновационной. К сожалению, все помнили, что в основе Bulldozer лежали те же принципы – был нужен другой подход.
И AMD воспользовалась маркетингом, объявив о 52% прироста IPC в сравнении с поколением Excavator – наиболее свежих ядер, выросших все из того же Bulldozer. Это означало, что в сравнении с 8150 процессоры Zen обещали быть более чем на 60% быстрее, и это заинтриговало всех. Поначалу на презентациях AMD уделяли время лишь профессиональным задачам, сравнивая свой новый процессор с 5930K, а позже – с 6800K, но со временем речь зашла и об игровой стороне проблемы – наиболее острой с точки зрения продаж. Но и тут AMD были готовы сражаться.
В основе архитектуры Zen лежит новый техпроцесс в 14 нм, а архитектурно новинки ничуть не похожи на модульную архитектуру родом из 2011. Теперь на кристалле располагается два больших функциональных блока, названных CCX (Core Complex), в каждом из которых может быть до четырех активных ядер. Как и в случае со Skylake, на подложке кристалла расположились всевозможные системные контроллеры, включающие 24 линии PCI-E 3.0, поддержку до 4 портов USB 3.1 Type A, а также двухканальный контроллер памяти DDR4. Особенно стоит отметить и объем кэша L3 – во флагманских решениях его объем достигает 16 Мб. Каждое из ядер получилось собственный блок операций с плавающей запятой (FPU), что решило одну из главнейших проблем предыдущей архитектуры. Радикально снизилось и потребление процессоров, — для флагманского Ryzen 7 1800X оно было обозначено на уровне 95 Вт в сравнении с 220 Вт для самых «горячих» (во всех смыслах) моделей AMD FX.
Технологическая начинка оказалась не менее богатой на инновации – так новые процессоры AMD получили целый набор новых технологий под заголовком SenseMI, куда был включен Smart Prefetch (загружающий в кэш-буфер данные для ускорения работы программ), Pure Power (по сути аналог «интеллектуального» управления питанием процессора и его сегментов, реализованного в Skylake), Neural Net Prediction (алгоритм, работающий по принципам самообучающийся нейронной сети), а также Extended Frequency Range (или XFR), призванный обеспечить пользователю с передовыми системами охлаждения дополнительные 100 МГц частоты. За разгон впервые со времен Piledriver отвечал не Turbo Core, а Precision Boost – обновленная технология повышения частоты в зависимости от нагрузки по ядрам. Подобную технологию мы видели у Intel еще со времен Sandy Bridge.
В основе новой архитектуры Ryzen лежит шина Infinity Fabric, созданная для соединения между собой как отдельных ядер, так и двух CCX-блоков на подложке кристалла. Высокоскоростной интерфейс был призван обеспечить максимально быстрое взаимодействие ядер и блоков, а также иметь возможности реализации на иных платформах – например, на экономичных APU и даже в графических картах AMD VEGA, где шина в паре с HBM2-памятью должна работать с пропускной способностью как минимум 512 Гб/с.
Все это связано с амбициозными планами по расширению линейки Zen на высокопроизводительные платформы, серверы и APU – унификация производственного процесса, как и всегда, ведет к удешевлению производства, а низкие заманчивые цены всегда были прерогативой AMD.
Вначале AMD представила лишь Ryzen 7 – старшие модели линейки, ориентированные на самых придирчивых пользователей и медиамейкеров, а через несколько месяцев за ними последовали Ryzen 5 и Ryzen 3. Именно Ryzen 5 оказались наиболее привлекательными решениями с точки зрения, как цены, так и игровой производительности, к которой Intel, говоря прямо, оказалась совсем не готова. И если на первом этапе казалось, что Ryzen суждено повторить судьбу Bulldozer (пусть и с меньшим градусом драматизма), то со временем стало понятно, что у AMD получилось вновь навязать конкуренцию.
Главными проблемами Ryzen стали технически нюансы, сопровождавшие владельцев ранних ревизий на протяжении первых нескольких месяцев – из-за проблем с памятью Ryzen не спешили рекомендовать к покупке, а зависимость процессоров от частоты оперативной памяти прямо намекало на необходимость дополнительных трат. Тем не менее, искушенные в настройках таймингов пользователи обнаружили, что с высокоскоростными модулями памяти, настроенными на минимальные тайминги Ryzen способен потеснить даже 7700k, что вызвало настоящий восторг в лагере фанатов AMD. Но даже без подобных изысков процессоры семейства Ryzen 5 оказались настолько удачными, что волна их продаж вынудила Intel на проведение срочной революции в своей архитектуре. Ответом на удачный ход AMD стал выход последней (на момент написания материала) архитектуры Coffee Lake, получившей 6 ядер вместо четырех.
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« Coffee Lake. Лед тронулся
» Нажмите, для открытия спойлера | Press to open the spoiler «
Несмотря на то, что 7700k долгое время удерживал звание лучшего игрового процессора, AMD смогла добиться невероятного успеха в среднем классе линейки, реализовав старейший принцип «больше ядер, но дешевле». В Ryzen 1600 было 6 ядер и целых 12 потоков, а 7600k все еще был привязан к 4 ядрам, что обеспечивало AMD простейшую маркетинговую победу, особенно с поддержкой многочисленных обзорщиков и блоггеров. Тогда Intel сдвинула график релизов, и представила на рынок Coffee Lake – не очередные пару процентов и пару ватт, а настоящий шаг вперед.
Правда, и здесь он был совершен с оговоркой. Шесть долгожданных ядер, не лишенны радостей SMT, фактически появились на базе все того же самого Skylake, построенного на 14 нм. В Kaby Lake его основу подрихтовали, решив проблемы с разгоном и температурой, а в Coffee Lake доработали в сторону увеличения числа блоков ядер на 2, и оптимизацией для более холодной и стабильной работы. Если же оценивать архитектуру с точки зрения нововведений, то никаких новшеств (помимо роста числа ядер) в Coffee Lake не появилось.
Зато появились технические ограничения, связанные с необходимостью новых материнских плат на базе Z370. Эти ограничения связаны с ростом требований к питанию, т.к добавление шести ядер и редизайн системы с учетом роста прожорливости кристалла потребовал поднять планки по минимальному питающему напряжению. Как мы помним из истории Broadwell, Intel последние годы стремилась наоборот – снижать напряжения по всем фронтам, однако теперь такая стратегия оказалась в тупике. Технически LGA1151 остался все тем же, однако из-за рисков вывести из строя контроллер VRM Intel ограничила совместимость процессора с прежними материнскими платами, таким образом обезопасив себя от возможных скандалов (как это было с RX480 и погоревшими разъемами PCI-E у AMD). Не стало в обновленной Z370 и поддержки прежней DDR3L-памяти, но подобную совместимость никто, в общем-то, и не ждал.
Сами Intel готовили обновленный вариант платформы с поддержкой USB 3.1 второго поколения, карт памяти SDXC и встроенного контроллера Wi-Fi 802.11, поэтому релизная спешка с Z370 оказалась одним из тех казусов, которые позволили сделать выводы о появлении платформы. Тем не менее, сюрпризов в Coffee Lake было предостаточно – и особая их часть была сосредоточена на разгоне.
Ему в Intel уделили много внимания, подчеркнув работу, проделанную над оптимизацией процесса разгона – так, в Coffee Lake появилась возможность настройки нескольких пресетов работы пошагового разгона для разных условий загрузки ядер, возможности динамически менять тайминги памяти, не покидая операционной системы, поддержка любых, даже самых невозможных множителей DDR4 (заявлена поддержка частоты до 8400 МГц), а также усиленная система питания, рассчитанная на максимальные нагрузки. Тем не менее, по факту разгон 8700k был далеко не самым невероятным – из-за непрактичности используемого термоинтерфейса без делиддинга процессор зачастую ограничивался 4.7-4.8 ГГц, достигая предельных температур, но со сменой интерфейса мог показывать новые рекорды в стиле 5.2 или даже 5.3 ГГц. Однако подавляющее большинство пользователей не были заинтересованы в подобном, так что разгонный потенциал шестиядерного Coffee Lake можно назвать сдержанным. Да-да, Сэнди еще не забыли.
Игровая производительность Coffee Lake особенных чудес не показала – несмотря на появление двух физических ядер и четырех потоков, 8700k на момент релиза имел лишь примерно тот же шаг в 5-10% производительности сверх предыдущего флагмана. Да, Ryzen не мог составить ему конкуренции в игровой нише, но с точки зрения архитектурных доработок выясняется, что Coffee Lake – это просто еще один затяжной «ток», но никак не «тик», каким был Sandy Bridge в 2011 году.
К счастью для фанатов AMD, после выпуска Ryzen компания объявила о долгоиграющих планах на сокет AM4 и развитие архитектуры Zen до 2020 года – и после того, как Coffee Lake вновь вернул внимание среднему сегменту Intel, пришла пора для Ryzen 2 – в конце концов, и у AMD должен быть свой «ток».
»» Нажмите, для закрытия спойлера | Press to close the spoiler «« 2019 – Синяя точка невозврата или Революция «чиплетов»
» Нажмите, для открытия спойлера | Press to open the spoiler «
После выхода двух крайне успешных поколений процессоров Ryzen компания AMD была готова сделать беспрецедентный шаг вперед не только в плане производительности, но и в новейших технологиях производства – переход на 7-нм техпроцесс, обеспечивающий 25% рост производительности при сохранении неизменного теплопакета вкупе с множеством архитектурных разработок и оптимизаций позволяли вывести платформу AM4 на новый уровень, предоставив всем владельцам предыдущих «народных» связок безболезненный апргрейд с предварительным обновлением BIOS.
И психологически важная отметка в 4 ГГц, которая во многом была камнем преткновения на пути к ожесточенной конкуренции с Intel, волновала энтузиастов в другом ключе – с появления первых слухов многие справедливо отметили, что рост частот
SoftoRooM © 2004-2024