Истории индустрии IT, взлёты, развитие, падения значимых из мира IT
|
HugoBo-SS
тут-та-ту
[SoftoRooMTeaM]
Группа: Модераторы Сообщений: 10.906 Регистрация: 3.04.2008 Из: Russia SPb Пользователь №: 827.869
Респектов: 4350
| | |
| |
5.11.2015 - 13:47 |
HugoBo-SS
тут-та-ту
[SoftoRooMTeaM]
Группа: Модераторы Сообщений: 10.906 Регистрация: 3.04.2008 Из: Russia SPb Пользователь №: 827.869
Респектов: 4350
| Самодельный компьютер из 1967 года
Какой компьютер вы могли бы сделать в 1967 году? Если были читателем британского журнала Wireless World, то могли по инструкции в номерах за август-декабрь 1967 г. собрать машину Wireless World Computer. Для изготовления цифрового компьютера понадобятся: ● 400 германиевых транзисторов (тип 2G371); ● 1800 угольноплёночных резисторов на 0,25 Вт; ● 66 кремниевых транзисторов; ● 450 кремниевых диодов (тип 1S130); ● 325 полиэстеровых конденсаторов; ● 24 электролитических конденсатора; ● 24 переключателя; ● 66 неоновых лампочек на панели (D795 Bulgin); ● 8 макетных плат 0,15" типа Veroboard размером 17" х 3¾"; ● 1 Mullard OAZ211; ● 2 транзистора Mullard OC28; ● 2 диода Texas 1S410R, 1 1S410; ● 1 кремниевый выпрямительный диод. » Нажмите, для открытия спойлера | Press to open the spoiler « Согласно инструкции журнала, детали обойдутся всего в 50 фунтов (около $125 по курсу 1967 года) или примерно $900 на теперешние деньги, с учётом инфляции. Компьютер умеет складывать, вычитать, умножать и делить восьмибитные числа. Числа в компьютер вводятся вручную в бинарной форме с помощью набора переключателей, а результат отображается свечением лампочек-индикаторов. Конструкцию настольного бинарного компьютера Wireless World Computer разработал сотрудник журнала Wireless World Брайан Крэнк (Brian Crank). Предполагалось, что дешёвого самодельные компьютеры можно устанавливать в школах для демонстрации возможностей цифровой вычислительной техники. Некоторые специалисты считают, что компьютер Брайана Крэнка чем-то напоминает его другой британский компьютер EDSAC образца 1949 года. Автор наверняка был знаком с архитектурой более древнего предка, в свою очередь, скопированного с американского EDVAC. В мануале Wireless World Computer инструкции тоже называются «ордерами» (orders), как у EDSAC. Автор признаёт, что логика Wireless World Computer не всегда минимизирована, но в полном виде логические функции лучше иллюстрируют работу машины. Технические характеристики Wireless World Computer не впечатляют, по современным стандартам. Но ведь это 1967 год и древние германиевые транзисторы. Такие транзисторы были значительно дешевле и хуже, чем только что появившиеся на рынке кремниевые. Вероятно, в 1967 году их можно было купить совсем по дешёвке на распродаже. Сейчас машина из таких раритетных комплектующих будет стоить в несколько раз дороже современного компьютера. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Источник: geektimes | |
| |
7.11.2015 - 15:54 |
HugoBo-SS
тут-та-ту
[SoftoRooMTeaM]
Группа: Модераторы Сообщений: 10.906 Регистрация: 3.04.2008 Из: Russia SPb Пользователь №: 827.869
Респектов: 4350
| Как две домохозяйки развивали индустрию компьютеров в 1970-е годы
В апреле 1977 года Стив Джобс и Стив Возняк арендовали стенд на первой Компьютерной выставке Западного побережья в Сан-Франциско. Там они показали Apple II и получили первые заказы на него. На той же выставке две женщины из Южной Калифорнии запускали собственную инновационную машину – они привезли на выставку компьютер Vector 1, спроектированный мужем одной из них. Компания называлась Vector Graphic., Inc. Во времена, когда Apple и Vector Graphic были одинаково маленькими компаниями, пытающимися создать новый рынок, не было ясно, кто станет более успешным. По итогам выставки журнал Byte писал о Vector, но ни словом не обмолвился об Apple, которая спустя годы станет самой дорогой компанией на планете. Vector Graphic был одним из самых известных производителей персональных компьютеров в конце семидесятых. Как и Apple, компания одной из первых стала публичной. Но в отличие от Apple, Vector больше не существует. Она не выдержала натиска революционного IBM PC в 1981 году. Но история о двух домохозяйках заслуживает пересказа. Я не могу всё время быть дома!» Нажмите, для открытия спойлера | Press to open the spoiler « Обычно люди переезжают в пригород, чтобы спрятаться от изменений и новинок. Но в 1970-х в Калифорнии пригород был местом, где начинали рисковые предприятия. Все знают, как Стив Джобс и Стив Возняк запустили Apple в гараже в Лос-Альтос. На триста пятьдесят миль к югу в Вестлейк Вилладж разработкой компьютеров занялись двое соседей. Семья Харпов в начале семидесятых переехала в Вестлейк Вилладж. Отец семейства, Доктор Роберт харп, работал в Hughes Research Labs. Его жена, немка Лоре, следила за домом. Когда Лоре впервые попала в Калифорнию в 1966 году в качестве туриста, она почувствовала атмосферу свободы от родительской заботы и чувство, что всё возможно. «Будто обрезала пуповину во второй раз», — говорила она. Против желания родителей Лоре решила остаться в Штатах. Она подрабатывала на разных работах, пока не встретила Боба Харпа, работавшего в Калифорнийском технологическом институте. Они поженились, родили двоих дочерей, и Лоре получила степень бакалавра антропологии в Калифорнийском Государственном университете Лос-Анджелеса. К 1975 году Лоре надоело сидеть дома. Дети были в школе, муж – на работе с девяти до пяти, а у неё не было желания играть в бридж или ходить на маникюр. «Я не могу сидеть дома. Это сводит меня с ума», — писала она в статье в New York Times в 1983. Лоре нашла родственную душу – соседку Кэрол Эли, их дети вместе учились. «Нам было скучно делать работу по дому. Я была готова к чему-то новому», — говорит Эли. До того, как стать домохозяйкой, Кэрол работала на крупные инвестиционные компании вроде Merrill Lynch, и ей не терпелось снова заняться делом. Скучающие домохозяйки решили найти себе занятие. Они обе любили путешествовать, и в первую очередь подумали о туристическом агентстве. Но получение лицензий было сложным, а прибыль – призрачной. В 1979-х появилась уникальная возможность для нового бизнеса. В те времена компьютеры были размером с немаленький холодильник и стояли тысячи долларов. А инженер Эд Робертс из Альбукерке выпустил комплект за 439 долларов, позволявший любителям самостоятельно собрать компьютер. Речь об Altair 8800 на базе микропроцессора Intel 8080 – именно он положил начало любительским компьютерам. Одним из людей, увидевших статью об Altair и заказавших его, стал Боб Харп – муж Лоре. Когда Боб получил заказ, он был разочарован платой памяти – на его взгляд, она была плохо спроектирована. Как и любой инженер того времени, Боб просто сделал свою плату и заменил штатную. Боб экспериментировал с электроникой с детства, когда его семья переехала на ферму, где электричества не было. Он пытался собрать собственныый радиоприёмник, чтобы слушать любимые радио-шоу дома. Любовь к науке заставила его получить степень в области физики в Стэнфорде и в Массачусетском технологическом. Первым проектом Боба в сфере компьютерной электроники была восьмикилобайтная плата статической памяти для Altair, подключаемая к шлейфу компьютера. Появившийся позже шлейф S-100 стал мировым стандартом, что позволило многим компаниям разрабатывать свои процессоры, память и видео карты. Другие компании стали работать с программным обеспечением – в том числе Microsoft, основанная Биллом Гейтсом и Полом Алленом. Плата памяти работала хорошо, и Боб Харп понял, что есть смысл сделать коммерческий продукт. Не имея времени и ресурсов для коммерциализации проекта, он отложил его в долгий ящик. Но в 1976 году, когда Лоре и Кэрол начали пытаться построить свой бизнес, он предложил им свою работу в качестве потенциального продукта. Кэрол и Лоре были далеки от компьютерных технологий. Лоре позвонила Кэрол: «Кэрол, что ты думаешь о том, чтобы создать компьютерную компанию? У меня есть маленькая восьмикилобайтная плата RAM», — «Что такое плата RAM?» Чтобы познакомить Лоре и Кэрол с миром персональных компьютеров, Боб Харп отвёл их на местное компьютерное шоу. Они узнали о рынке, полном энтузиастов, где люди тратили свои деньги на покупку полуготовых продуктов. Это была абсолютно новая индустрия со слабой конкуренцией. Лоре и Кэрол решили сделать собственный продукт привлекательным – с акцентом на стиль. Они даже искали конденсаторы специального цвета, чтобы те сочетались с другими компонентами на платах. Я не знаю, что о нас думали люди: о двух женщинах, которые ищут цветные конденсаторы. Но нам было важно, какого цвета будут элементы на платах. В августе 1976 года была зарегистрирована компания Vector Graphic. Название придумал Боб – он хотел спроектировать видеокарту с таким именем, чего так и не сделал, но имя прижилось. Боб после открытия компании не стал увольняться с прежней работы. Лоре и Кэрол занимались бизнесом, а если не могли ответить на вопрос клиента, звонили Бобу на работу. Лоре стала президентом и CEO, Кэрол специализировалась на маркетинге и коммуникациях. Боб Харп присоединился к компании на постоянной основе в 1977 году. Стартовый капитал Vector Graphic составил шесть тысяч долларов. Пара домохозяек скоро нашла способ продавать плату – с помощью заказов по почте и рекламы в национальных журналах. Наложенный платеж без возможности возврата – и компания начала зарабатывать с самого начала. Два рабочих стола поставили в спальне Харпов, вся семья собирала платы на этой «фабрике». В статье Time magazine в 1982 году писали, что компьютеры тестировали на кухонном столе, а упаковочные материалы хранили в душевой. Когда пришло время вести переговоры с поставщиками комплектующих, Лоре нужно было убедить их, что Vector Graphic – это серьезный бизнес. Поэтому встречи проходили вне дома, когда это было возможно. Позже компания выросла и перенесла деятельность в здание бывшего универмага. AMD хотел покупать платы по высокой цене, но в итоге заключил сделку с Fairchild. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« «Давайте сделаем целую систему»» Нажмите, для открытия спойлера | Press to open the spoiler « Плата памяти имела успех, и Боб продолжил разработки. Он сделал другие карты для машин с шлейфами S-100. Он спроектировал видеокарту, еще одну плату памяти, источник питания, материнскую плату, позволяющую составить все его разработки в одном компьютере. И пришел к выводу – почему бы не сделать целую систему? Так и появился Vector 1. В 1977 году он вышел в двух цветовых вариантах – красном или оранжевом корпусе. Над дизайном работали Лоре и Кэрол. Мало кто из производителей компьютеров задумывался, на что похожи их машины. Акцент на визуальную эстетику вызвал ряд неудобств, например, вместо заказанных разработчиками оранжевых плат пришла партия плат розового цвета. На лицевой панели Vector 1 были две кнопки – «Power» и «Reset». В следующем варианте Vector 1+ был флоппи-дисковод. Полностью собранный Vector 1 на базе процессора Intel 8080A стоит 849 долларов, сейчас с учётом инфляции это 3288 долларов. В виде наборе «сделай сам» компьютер стоил 619 долларов. Лоре и Кэрол начали связываться с каждым дилером, которого могли найти, выстроили работу с ними и в течение нескольких лет начали обучать продавцов клиентской поддержке. В апреле 1977 года Стив Джобс и Стив Возняк показали Apple II на первой Компьютерной выставке Западного побережья в Сан-Франциско. Там же был представлен Vector 1. Разработчики Vector не считали Apple конкурентами, так как были нацелены на бизнес-рынок, в то время как Apple работали над компьютерами для широкого круга пользователей. «Мы всегда смотрели на Apple II больше как на игрушку», – вспоминает Лоре. Рынок персональных компьютеров в то время рос высокими темпами, каждую неделю совершали революции в области дизайна. За два года эта индустрия перешла от комплектов «сделай сам» к готовым системам, которые было нужно только включить. Бюджетные компьютеры, такие как TRS-80 и Commodore PET, захватили нижний ценовой сегмент, а Vector, Cromemco и IMSAI были нацелены на старший ценовой сегмент, где прибыль для них была более приемлема, и где бесконечные варианты настройки компьютера были нужны бизнесу. Разница в ценах между машинами на базе S-100 и новыми потребительскими персональными компьютерами была велика. В 1979 году Apple II+ с флоппи-диском продавался за две тысячи долларов, а Cromemco и Vector стоил от четырёх до двадцати тысяч долларов в зависимости от конфигурации. Для сравнения: лимузин Cadillac 75 серии в семидесятых стоили до шестнадцати тысяч долларов. Но недорогие компьютеры становились лучше, и в Vector стали понимать, что Apple уже наступает им на пятки. Переломный момент наступил в 1979 году, когда появилась программа для работы с электронными таблицами VisiCalc, которую можно было запустить только на Apple II. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Вперёд и вверх» Нажмите, для открытия спойлера | Press to open the spoiler « История домохозяек, создавших мультимиллионную компанию по производству и продаже компьютеров, появилась на обложках журналов о бизнесе, например – Inc. Лоре и Кэрол стали знамениты как «девочки в зелёном и белом», потому что на торговых конференциях появлялись в корпоративных цветах Vector. О Лоре много писали, она дружила со светилами компьютерной индустрии – Биллом Гейтсом и Адамом Осборном. В начале восьмидесятых Лоре отдыхала в Париже с губернатором Калифорнии Джерри Брауном и Стивом Джобсом в составе делегации технологов из Калифорнии. Лоре считали не селебрити от технологий, а знатоком бизнеса в своей области. Когда у компании начались проблемы в 1983 году, в New York Times писали: «Лоре Харп быстро показала, что она больше, чем просто бизнес-менеджер. Она управляет компанией, понимая нужды и возможности рынка». Как глава компании Лоре была бережлива, следила за отсутствием долгов и поступлениями денег в бизнес. Но к своим достоинствам она относит и другую социальную роль – она была мамой двух девочек, и свой материнский инстинкт она перенесла на сотрудников компании и их семьи. «Vector был очень дружной семьёй, это большая часть вклада Лоре в компанию как CEO», — вспоминает Денис Уинго, работавший техником Vector в начале восьмидесятых. Лоре по словам Уинго была известна своей ориентированностью на людей, на их знания и навыки, а не на образование или пол. Когда в 1981 году её спросили, почему она не нанимает специально больше женщин в компанию, Лоре сказала, что её не интересует пол соискателя – она нанимает людей, которые лучше выполняют свою работу. Сама Лоре говорит, что никогда не сталкивалась со значительным противодействием со стороны мужчин. Когда она услышала слухи о себе и термин «ледяная дева», она восприняла это как показатель эффективности своей работы. Лоре была свидетелем того, как женщины было сложно продвигаться по карьерной лестнице на Уолл-Стрит, но в Vector она вместе с соосновательницей компании создала совсем ругую атмосферу. Тем временем Боб Харп почувствовал, что СМИ уделяют слишком много внимание тому факту, что Кэрол и Лоре – женщины, когда он сам сделал компанию благодаря своим разработкам. Кэрол как глава PR видела популярность Лоре, и её это вполне устраивало. «Это случилось само собой. Люди будут встречаться с Лоре. Она была с ними всё время». Но Боба такое положение вещей раздражало. Лоре рассказывает, что как только в дискуссиях возникали вопросы технического характера, или когда журналисты обращались об интервью на эту тему, она всегда включала в процесс Боба. История компании показывает, что успеха Vector добилась благодаря коллективным усилиям. Лоре, Кэрол и Боб разделили обязанности трёх основных подразделений любого технологического гиганта – менеджмент, маркетинг и разработку. С большими успехами пришли проблемы, партнёрство начало трещать по швам в 1980 году. Боб и Лоре решили развестись. Лоре надеялась, что развод не повлияет на будущее компании, но разлад между президентом и главным инженером внёс свои коррективы. А тяжёлые времена были ещё впереди. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Гигант просыпается» Нажмите, для открытия спойлера | Press to open the spoiler « В восьмидесятых IBM начал ходить по компаниям-производителям микрокомпьютеров под предлогом их лицензирования. Дон Эстридж, глава проекта IBM по производству ПК, в 1980 году пришёл к руководству Vector. Лоре на встрече сказала Эстриджу: «Вы знаете, это шутка. Ваш годовой доход – 25 миллионов долларов. Вся наша компания стоит 25 миллионов, и вы хотите, чтобы мы собирали вам компьютеры?» Никаких соглашений руководство Vector с представителем IBM не достигло, и Эстридж ушёл с компьютером Vector 3. Сразу после этого Лоре провела внутреннюю встречу и сказала на ней: «У нас есть год, прежде чем этот бизнес придёт IBM, и мир поменяется». Кэрол эта новость сильно беспокоила. Лоре понимала, что времени осталось мало. Она решила сделать компанию публичной, пока у неё был шанс. У нас есть год, прежде чем IBM придёт в этот бизнес, и мир поменяется. В Vector боялись, что IBM скопирует разработки компании. Но гигант сделал нечто иное: изучил отношения Vector с поставщиками программного обеспечения для бизнеса, в том числе Peachtree Sofware, и заключил контракты с ними, получив возможность первым запускать приложения. Так IBM отобрал у Vector конкурентное преимущество. Для Боба Харпа стало очевидно, что битва за будущее в индустрии зависит от программного обеспечения. Чтобы выжить, вы должны быть совместимы с архитектурой IBM. Боб не смог убедить в этом совет директоров Vector. По их мнению, если бы компания перешла резко на новую и непроверенную платформу, от неё бы ушли клиенты. Борьба за совместимость с IBM PC, работа с будущей бывшей женой влияла на Боба, и он стал работать над сторонним проектом в рабочее время, с явным намерением раздражать этим совет директоров Vector. «Я чувствовал, что должен покинуть компанию и открыть новую, производить совместимые компьютеры». И совет директоров уволил его в 1981 году. Компания потеряла инженера, который разработал почти всё железо компании с 1976 года. Боб основал Corona Data Systems, которая стала одним из первых производителей IBM-совместимых компьютеров. Производила компьютеры корейская компания Daewoo, основной инвестор компании. Лоре готовилась к IPO и пообещала каждому из сотрудников по 100 акций за каждый год, который они проработали в Vector. Директорам это не понравилось, они были уверены, что эти акции – для менеджмента компании. Лоре пояснила, что для неё важен самый низкооплачиваемый сотрудник на сборочной линии: «Если он пропустил винт или сделал ошибку – мы все возьмём на себя эту вину». Такой подход воодушевил всех сотрудников. Компания разместила миллион акций по тринадцать долларов в октябре 1981 года. Но праздник был недолгим: компании, которые раньше купили бы систему S-100, стали заказывать IBM PC или машины совместимые с железом IBM и операционной системой MS-DOS от Microsoft. Спустя два года Vector подготовила ответ, создав двухпроцессорный Vector 4 с ограниченной совместимостью с MS-DOS. Но было уже поздно – судьба компании была предопределена, как только она отказалась от IBM-совместимости своих машин. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Начало конца» Нажмите, для открытия спойлера | Press to open the spoiler « В 1982 году Лоре вышла замуж за медиамагната Матрика Макговерна, основателя исследовательской фирмы IDC, издателя Computerworld и InfoWorld, а позже – PC World, Macworld и GamePro. Чтобы больше времени уделять семье, Лоре передала полномочия CEO и президента Фреду Сноу, оставаясь председателем правления. В мае 1983 года продажи компании упали, и совет директоров принял решение вернуть Лоре на место президента и CEO. К 1983 году управление Vector напоминало попытки откорректировать место назначения тонущего корабля. Лоре устала от работы, совет директоров её не любил, и она снова решила уйти из компании в 1984 году. Выручка Vector снизилась от 36,2 миллиона долларов в 1981 году до 2,1 миллиона в 1984 году. Одна из последних машин компании, Vector SX, имела совместимый с IBM флоппи-дисковод. Такими темпами Vector начала бы производить IBM-совместимые машины только к концу десятилетия. Но времени у компании не было, из-за снижения доходов и долгов по кредитами в 1985 году Vector подала на банкротство, прекратила деятельность в 1986 году и ликвидировала активы в 1987 году, спустя десять лет после запуска своего первого компьютера. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Забытая история» Нажмите, для открытия спойлера | Press to open the spoiler « После 1982 года ничто не могло спасти Vector. Компания неизбежно разделила участь почти каждого производителя компьютеров, который не стал делать клоны IBM. До 1990-х сумела дожить только Aple с собственной платформой. Vector внесла свой вклад в индустрию благодаря выстроенным взаимоотношениям с поставщиками программного обеспечения, опытом компании воспользовалась IBM. Фирмы, победившие в этой битве, стали диктовать свои условия. В 2015 году часто говорят о гендерном разрыве в высокотехнологичных компаниях. Можно сделать ошибочный вывод, что это – из-за изначального преобладания мужчин в индустрии. Но есть пример, когда две женщины, две домохозяйки из Калифорнии смогли без использования чужого опыта, а с помощью чувства прекрасного, любви к людям и семьям, налаживания связей с поставщиками программного обеспечения и обучения сотрудников магазинов смогли создать многомиллионную компанию, которая хоть и проиграла, но внесла свой вклад в историю отрасли. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Источники: Geektimes, oldcomputers_net | |
| |
11.11.2015 - 15:23 |
HugoBo-SS
тут-та-ту
[SoftoRooMTeaM]
Группа: Модераторы Сообщений: 10.906 Регистрация: 3.04.2008 Из: Russia SPb Пользователь №: 827.869
Респектов: 4350
| OS/2: Почему IBM проиграла, а Microsoft выиграла
В начале второй половины 80-х IBM представила генеральный план восстановления контроля над рынком PC. В ноябре 1987 года в магазины отправились первые дискеты с OS/2 версии 1.0. Microsoft разрабатывала ее вместе с IBM и в случае успешной реализации этих планов мир был бы совсем иным. И мир уже начал меняться. Сейчас о OS/2 обычно вспоминают только в связи с той ролью, которую она сыграла в промышленной войне, окончившейся триумфальной победой Microsoft. На момент выпуска OS/2 в Microsoft работало 1800 человек, меньше, чем сейчас работает в ливерпульском телемагазине QVC. Microsoft даже не была крупнейшим производителем программ для PC. Но всего через несколько лет компания стала не только крупнейшим игроком отрасли, но и одной самых дорогих компаний в мире; один лишь слух о выходе Microsoft в новую нишу вызывал панику у существующих игроков. Согласно традициям нашего издания я вернул старые программы к жизни и оценил OS/2 с современной точки зрения. Но гораздо интереснее вновь задать иной вопрос: могла ли IBM победить? Если именно OS/2 стала причиной поражения Синего Гиганта, то смогли бы они остановить Microsoft с помощью более хитрых планов? Давайте вернемся в те времена, когда мир еще не знал слов «платформа» и «экосистема» и вспомним, как выглядела отрасль информационных технологий в середине 1980-х. Первичный суп: мир в 1987» Нажмите, для открытия спойлера | Press to open the spoiler « Это была разобщенная вселенная. Серьезные деньги делались на старом железе, вертикально интегрированных системах. IBM была хозяйкой этой вселенной, только что уладив длившееся десять лет антимонопольное дело. В 1985 году в ней работало 405 000 человек — 12 Google. В ближайшем конкуренте IBM, Digital Equipment, владевшей половиной рынка миникомпьютеров, работало 100 000 человек. Центр информационной отрасли находился в районе Бостона и Нью-Йорка, отражая влияние правительственных заказов времен холодной войны и MIT, крупнейшего технического университета в мире, расположенного в Бостоне, штат Массачусетс. Только-только начавшееся проникновение микропроцессоров на рынок привело к бурному обсуждению "открытых систем". В течение следующих лет «открытые системы» стали главным маркетинговым слоганом, почти сравнявшись по популярности с нынешними «облаками». Открытые системы значили Unix, а Unix значил Sun Microsystems — которая стала двигателем конкуренции на новом рынке сетевых рабочих станций. Таким был деловой рынок. Игры и крутое мультимедиа жили на мощных 16-битных микрокомпьютерах, в числе которых были занявшие ниши аудио и (позже) видео обработки линейки Commodore Amiga и Atari ST. На фоне их успехов Apple Macintosh выглядел переоцененной игрушкой. По сути дела Mac был просто еще одним микрокопьютером на базе микропроцессоров семейства Motorola 68000 — очень хорошо сконструированным — но технически уступавшим намного более сложному Amiga и слишком странным для бизнеса. Какое-то время казалось, что Mac потопит Apple, но язык Postscript, принтер Apple LaserWriter и PageMaker создали компьютерную верстку и дали Apple непоколебимую опору в издательском деле. Еще был IBM PC. Грубый, малофункциональный, неприкольный: PC умудрился собрать в себе худшее из всех миров. В качестве делового компьютера он значительно уступал рабочим станциям Sun. И какому идиоту могла придти в голову мысль купить PC домой? Его было бессмысленно использовать в качестве мультимедийной машины, не было даже звуковых карт, ему был доступен только примитивный писк. Но у PC были свои преимущества. Офисы и отделы крупных компаний могли покупать собственные PC или его клоны и намного быстрее, проще и дешевле начинать работу с базами данных или электронными таблицами. Альтернативой были бюрократические процедуры запросов на получение рабочего времени на мейнфрейме и написания или переделки соответствующих программ. У PC был широкий выбор разнообразного железа, так как многочисленные компании продавали клоны или «совместимые» машины и процветающий рынок дилеров, обучения и поддержки. PC означал Novell для сетей, SCO Unix (или дюжину забытых альтернатив) для вертикальной интеграции, а для всего остального — крупнейшие компании этого рынка, Lotus Corporation и Ashton Tate. У вездесущих бизнес-приложений для PC — dBase, Lotus 1-2-3, WordStar и WordPerfect — были свои «экосистемы», состоящие из обученных пользователей, макросов, расширений и даже совместимых с ними серьезных программ для составления графиков и отчетов. Наверное вы заметили, что кое-чего не хватает. Никто не знал самой идеи «API» или экосистемы — многостороннего рынка — потому что в те времена «платформа» на PC означала само приложение. DOS не предоставлял никакого API, только позволяющие что-то поломать прерывания. В голом DOS не было ничего, способного помочь начинающему разработчику. Если вы разрабатывали новое приложение для DOS, вам приходилось самостоятельно поддерживать всю периферию. Если у пользователя был принтер HP LaserJet или навороченная видеокарта Hercules, вам надо было самостоятельно писать для них драйвера. В 1989 году WordPerfect сместил WordStar с места самого популярного текстового редактора для PC во многом благодаря отличным драйверам. DOS был не «операционной системой», а банальным загрузчиком. В DOS была примитивная файловая система «8+3». Никакого API не было — приложения делали все что хотели и на что были способны. А еще он был однозадачным, для многозадачности надо было устанавливать хаки от сторонних фирм. Таким образом, к середине 1980-х перед IBM стояли два вызова. Первый — отбить натиск открытых систем, укрепить репутацию PC как деловой машины и вернуть его под родительское крыло. Второй — вывести PC на современный уровень, что означало многозадачность, поддержку сетей и графический интерфейс — всем этим уже наслаждались пользователи остальных систем. IBM планировала добиться этого тремя способами — новой программной платформой, новой железной архитектурой и новой стратегией. IBM сделала новую системную шину PS/2 закрытой, надеясь продавать лицензии производителям клонов и карт расширения. Но никто не хотел их покупать. Вместо того, чтобы сделать остальной мир несовместимым с IBM и, следовательно, непривлекательным для покупателей, PS/2 сделала компьютеры IBM несовместимыми с остальными миром. PS/2 продавала только IBM и в итоге компания сдалась. Новая стратегия была грандиозной, всеохватывающей, маркетинговой чепухой под названием Systems Application Architecture и очень IBM-мовским ответом открытым системам. SAA обещала огромный набор стандартов, объединяющих интерфейсы IBM для разработчиков, пользовательские интерфейсы и протоколы связи. Но IBM давно перестала создавать разумные стандарты. Для примера, системы IBM не использовали промышленный стандарт для кодировки текста, ASCII — они использовали собственный, под названием EBCDIC — существовавший как минимум в шести разных версиях. SAA не сделала продукты IBM «открытыми системами». »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Новая операционная система для PC» Нажмите, для открытия спойлера | Press to open the spoiler « Третьим направлением усилий IBM была новая операционная система для PC — OS/2. В ней крылся новый вызов для компании. Много лет программы были лишь частью «компьютера», покупаемого клиентом, продавать программы отдельно от компьютеров IBM вынудило только решение министерства юстиции от 1968 года. Большая часть программного обеспечения продолжала писаться для конкретного железа и была жестко привязана к нему. IBM никогда раньше не продавала программы на открытом и зрелом рынке, где пользователи делают выбор сами. Это были неизведанные воды, в которых скрывались крайне агрессивные существа. Со своей многозадачностью, отточенной многопоточностью, межпроцессными полезностями вроде каналов и очередей (IPC goodies like pipes and queues), графическим интерфейсом и новой файловой системой OS/2 ни в чем не уступала конкурентам. Ядро было очень хорошо спроектировано и способно одновременно выполнять практически любые приложения. В API OS/2 также прослеживалось дальновидное планирование системы с рассчетом на многолетнее использование. IBM вела разработку OS/2 совместно с крохотной компанией Microsoft и несмотря на множество разногласий они как-то дошли до совместного выпуска системы. OS/2 была по-настоящему новой «платформой». Но она была непривычной для пользователей и на момент запуска не имела ни одного приложения. OS/2 было нужно то, что мы сейчас называем «экосистемой». И что же делать в таком случае? »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Что такое платформа?» Нажмите, для открытия спойлера | Press to open the spoiler « IBM в то время не имела никакого представления о самой идее аппаратно-независимой платформы. В прямом смысле слова она не знала того, чего не знала. Но откуда она могла узнать это? Клиенты обычно покупали то, что им советовала IBM, вопросы вставали только в отношении сроков покупки. OS/2 требовался рынок разработчиков и поддержка со стороны производителей железа, чтобы OS/2 могла работать на широком спектре видеокарт, принтеров и другой периферии. Это была классическая проблема курицы и яйца. Зачем выделять средства на покорение рынка, которого еще нет? При всей своей технической правильности OS/2 давала крайне мало преимуществ, а ее внедрение доставляло немало головной боли корпоративным службам поддержки. Размер и авторитет IBM вынудили нескольких крупных разработчиков сделать версии своих DOS-программ под OS/2, Ashton Tate, например, перенесла dBase, но переезд приложений еще не означал перемещения экосистемы. Разработка драйверов была адски трудной, спустя три года было крайне сложно что-то напечатать из под OS/2. В наше время производители платформ понимают, что им необходимо поддерживать, уговаривать и даже подкупать разработчиков приложений и драйверов. Microsoft знала это, IBM нет. Обратная совместимость OS/2 тоже не впечатляла. Изначально спроектированная 16-битной, новая система не использовала новые возможности 32-битных процессоров Intel 386 по запуску виртуальных машин DOS. «Средство совместимости с DOS» в 16-битной OS/2 было медленным и ненадежным. Без привлекательных приложений и поддержки железа единственным преимуществом OS/2 оставалась возможность использовать в приложениях более 640 килобайт памяти. Но летом 1988 года произошел скачок цен на память, сделавший необходимые для OS/2 2 мегабайта крайне дорогими. Графический интерфейс пользователя был еще более требовательным, Presentation Manager делал большинство уже имеющихся PC слишком слабыми для OS/2. Самым разумным выходом для пользователей стали сторонние патчи для DOS, добавлявшие многозадачность и расширявшие доступную память. Первая версия OS/2 вышла на рынок в 1987 году, с многозадачностью и текстовым интерфейсом. Версия с графическим интерфейсом вышла только через год. В ней все еще не было современной файловой системы HFS, с поддержкой разделов и больших файлов. OS/2 провалилась »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Разные идеи рабочей станции» Нажмите, для открытия спойлера | Press to open the spoiler « Летом 1988 один проект изменил взаимоотношения между партнерами. DOS не могла использовать более 640 килобайт оперативной памяти, что породило процветающий рынок расширителей памяти, которые с помощью различные трюков добивались выделения большего объема. Одним из несомненных преимуществ OS/2 был механизм работы с памятью, не накладывающий никаких ограничений вплоть до 15 мегабайт. Но этим летом один из редмондовских практикантов нашел способ запустить DOS в защищенном режиме Intel 286, дав ей больше памяти. Начальник практиканта показал его работу Стиву Баллмеру и руководство Microsoft задумалось над возможностью использования оболочки Windows в качестве расширителя памяти для DOS. PC мог загрузить DOS, запустить Windows, и постепенно заменять компоненты DOS на нижнем уровне, аналогично замене колес на движущемся автомобиле без его остановки. Заковыристый способ. Но Windows была полна подобных хаков — в техническом смысла слова это был самомодифицирующийся код. «Оболочка плюс расширитель памяти» не имела богатых API OS/2 — и система никогда не стала бы стабильной. В ней даже не было длинных имен файлов. DOS использовала архаичную систему 8+3 (“LTTR2BOB.WPD”) десятилетней давности. Она вообще не была операционной системой. Но у нее был графический интерфейс и с помощью дыма, зеркал и изрядного количества веры со стороны пользователей ее можно было представить как новую операционную систему. С легкой натяжкой Windows можно было рекламировать как новую «платформу». Новая платформа означала, что все существующие приложения продолжают работать и скоро к ним присоединятся новые, сияющие и прекрасные. На тот момент ни одна графическая оболочка над DOS не имела серьезного преимущества. Вероятность победы была очень велика. У Microsoft было несколько очень серьезных преимуществ. Во-первых у нее была очень хорошая позиция для развития «экосистемы», имелись средства разработки, она могла продавать их очень дешево и умела рекламировать Windows как «новую эпоху», что-то со все нарастающим ускорением. У Microsoft не было консервативных подразделений, которые надо было умиротворять. Во-вторых, у нее были очень хорошие взаимоотношения с производителями PC. Они платили за MS-DOS вне зависимости от того, устанавливали ли они ее на PC. Покупателям было нужно нечто способное запустить dBase и Lotus 1-2-3. Microsoft могла с легкостью добавить Windows на все эти компьютеры, а первый запуск Windows был легким и безболезненным. В-третьих, пресса и эксперты очень желали успеха Microsoft и провала IBM. Не потому, что они очень любили Microsoft. Но клоны создали процветающий рынок и никто не хотел, чтобы IBM вновь контролировала и железо и программное обеспечение. Никто не хотел возвращаться в мир, находящийся под властью одного огромного, вертикально интегрированного гиганта. Это не было очевидно летом 1990 года, спустя три года после анонса OS/2, когда вышла Windows 3.0, первая версия с поддержкой защищенного режима. Почти вся пресса считала Windows 3.0 еще одним соперником оболочки GEM и расширителя памяти Quarterdeck. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« ( Desqview пользовал живьём на Релкомовском узле связи BBS, в конце 80-х-начале 90-х, прим. HugoBo-SS ) Развод» Нажмите, для открытия спойлера | Press to open the spoiler « В течение многих месяцев перед выпуском Windows 3.0 летом 1990 года Microsoft распространяла ее копии, которые судя по всему достались всем значимым в отрасли людям. Было ясно, что Microsoft видит в Windows нечто больше, нежели цветок на могиле MS-DOS и прощальное слово до-OS/2-шному миру, который остается где-то позади. Ничего подобного. Microsoft проделала массу работы по увеличению привлекательности Windows и сверхактивно рекламировала ее среди разработчиков. Это была «псевдо-платформа», не являющаяся на самом деле новой ОС, но позволяющая разработчикам использовать графический интерфейс. Сытые по горло скудными продажами продуктов для OS/2 разработчики реагировали крайне положительно. В то же самое время Microsoft была обязана продолжать демонстрации 32-битной OS/2 прессе, и там было все то, чего так не хватало 16-битной версии. Псевдо-платформа-мутант Microsoft Windows 3.0 была запущена с большим шумом и стала хорошо продаваться. Стало ясно, что в течение 1989 года как минимум некоторые из разработчиков, изучавших OS/2 Presentation Manager, на самом деле развернулись в сторону Windows. Windows давала им массу возможностей и превращалась в шанс получить рынок, пусть даже скромный и недолговечный. Но хоть что-то было лучше чем ничего. Вскоре под Windows стало появляться все больше приложений, после чего они пошли потоком, так как крупные производители приложений затыкали дыры в своем портфолио. Всего за один месяц Microsoft продала больше копий Windows чем IBM копий OS/2 за два года. В течение 1988 и 1989 годов IBM несколько раз пыталась убедить Microsoft закрыть Windows, но Билл Гейтс отказался. После чего глава подразделения PC в IBM Джим Каннавино (Jim Cannavino) сделал хоть и непреднамеренную, но катастрофическую ошибку. Осознавая растущий энтузиазм Microsoft в отношении Windows он не смог ни признать их правоту и дать системе какие-то шансы ни разорвать соглашение с Microsoft. В итоге Windows получила прохладное одобрение — возможность появиться на свет и пространство для роста. Не смотря на полную несовместимость API Windows позиционировали как предварительную версию OS/2. У IBM было много возможностей избавиться от Microsoft и защитить OS/2, но эта ошибка была самой разрушительной. Это было в сентябре 1989. Самой страшной ошибкой IBM было сохранение партнерских отношений с Microsoft и отказ от попыток подавить развитие Windows. Отношения между ними быстро портились, так как Windows продавалась огромными тиражами. Экосистемные преимущества, которыми наслаждались Ashton Tate и Lotus, начали быстро испаряться. Windows предоставляла драйвера для устройств. Новые навыки сводились к умению обращаться с Windows. Знание запутанных последовательностей нестандартных горячих клавиш больше не было преимуществом. Разработчики WordPerfect отчаянно пытались удержать позиции, перенеся горячие клавиши из DOS в первую версию под Windows, но не добились успеха. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« ( Эх, Lotous Notes 1-2-3 , прим. HugoBo-SS) Марш на промышленные системы» Нажмите, для открытия спойлера | Press to open the spoiler « В деловой сфере Windows PC начали использовать для запуска неуклюжих приложений для конечных пользователей с формами. В мае 1991 Microsoft запустила Visual Basic — скриптовый язык с графическим интерфейсом, примитивный, но способный вызывать процедуры из скомпилированных библиотек. Windows также дала огромное преимущество подразделениям Microsoft по разработке прикладных приложений. В мире DOS доля рынка Microsoft Multiplan и Word была невелика. Но позиции их Windows-наследников, Excel и Word 2.0, были гораздо сильней. Вдобавок к этому Microsoft начала продавать комплект из своих офисных приложений с базой данных Access и программой для работы с электронной почтой заметно дешевле конкурентов. Весь «Office для Wndows» стоил дешевле чем один dBase или Lotus 1-2-3. Два года IBM и Microsoft вели пиар-войну на истощение. IBM не смогла убить Windows и должна была избавиться от Microsoft. Неизбежный развод произошел в апреле 1991. По итоговому соглашению IBM самостоятельно занялась разработкой 32-битной версии OS/2 и получила лицензию на включение в нее кода Windows. Microsoft немедленно прекратила разработку 16-битной OS/2, хотя еще несколько лет продолжала продавать Microsoft OS/2 LAN Manager, все уменьшая размер шрифта слова OS/2 на коробке. Пол Кэррол (Paul Carroll) в своей книге Big Blues: The Unmaking of IBM отмечает, что на момент публичного развода Microsoft продала 13 миллионов Windows 3.0 в течение года, в то время как IBM продала всего 600 000 копий OS/2 за три года — из которых настоящими продажами были всего 300 000 — реально использовалось намного меньше. На волне продаж Windows и спроса на Windows-приложения самой Microsoft компания выросла с 1800 сторудников до 10 000. Но не смотря на все это сила была не на ее стороне. Как позже писал сам Гейтс Когда они оборвали все связи и решили дальше работать без нас мы подумали: «Теперь мы сами по себе и это определенно очень, очень страшно. И страшнее всего было то, в 32-битной версии OS/2 было все то, чего так не хватало 16-битной. Это была весьма впечатляющая система, просто она еще не была завершена. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Империя наносит ответный удар» Нажмите, для открытия спойлера | Press to open the spoiler « Новая, 32-битная версия OS/2 полностью использовала возможности процессора Intel 386: плоскую модель памяти и способность виртуализировать сессии DOS, сохраняя связи между их процессами. 32-битная версия также поддерживала ненадежные расширители памяти DOS, давая DOS-приложениям быстрый, 32-битный доступ к памяти так, что они сами не замечали этого и запущенные в защищенных от падения виртуальных сессиях OS/2 DOS-приложения работали даже лучше, чем раньше. IBM и Microsoft в равной мере гордились этим. IBM брала Microsoft Flight Simulator, одно из самых требовательных к графике приложений для DOS — и запускала один экземпляр за другим, пока целая дюжина не начинала работать одновременно. Внезапно OS/2 начала выглядеть намного лучше конкурентов, решая многие проблемы деловых пользователей DOS, с которыми они мучились много лет подряд. Даже Windows программы работали во множественных виртуализированных сессиях быстрее чем в DOS. В OS/2 совмещались лучшие черты всех миров: старые DOS-приложения с их обученными пользователями и дополнениями от сторонних фирм, новая волна Windows-приложений и родные приложения OS/2. Тем не менее система задерживалась. IBM решила добавить блеска OS/2 с помощью радикально новой графической оболочки Workplace Shell. Это был не просто интерфейс пользователя, а набор обьектно-ориентированных библиотек классов, которые могли быть переопределены или расширены разработчиками. Workplace Shell добавляла в OS/2 многие возможности Mac и собственные новинки. Даже в наши дни она смотрится очень хорошо. Как это ни странно, но OS/2 становилась все популярнее среди энтузиастов, во многом благодаря потрясающим демонстрациям Дэвида Барнса (David Barnes), одного из великих демо-богов нашей отрасли. Вот Барнс во всем своем блеске в 1993 году. Microsoft нужна была красивая история и они нашли ее. У них была новая, многопользовательская и переносимая на разные процессоры операционная система на ранней стадии разработки. Она оказалась судьбоносной. OS/2 3.0 или OS/2 NT стала одной из крупнейших пустышек (vapourware) в истории отрасли. В 1990 году в ней было лишь способное загрузиться ядро, только через три года кто-то смог купить ее и только через шесть лет она начала оказывать заметное влияние на рынок. Но она радикально изменила мнение общественности. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« RISCовый бизнес и убийца Unix» Нажмите, для открытия спойлера | Press to open the spoiler « В то время возможность работы на разных процессорных архитектурах казалось очень важной. Расхожая мудрость гласила, что архитектура микропроцессоров от Intel выдохлась и будущее за RISC. На рынке рабочих станций главенствовали новые RISC процессоры от MIPS и Sun (SPARC), за которыми следовали DEC (Alpha) и IBM (Power). Сложно было понять, кто из них в итоге победит. Новая платформа-пустышка также обещала кое-что, что должны были сделать производители Unix, но не смогли: единую платформу с богатыми API. В мире Unix царила тирания мелких различий. Разработчики сражались за мельчайшие детали, не имевшие никакого значения для большинства пользователей. Они строили сложные планы и заговоры, обьединялись и расходились, выбрасывали большую часть привлекательных изменений (вроде NeWS Display Postscript UI от Sun) ради бесплодных попыток найти компромисс. Unix должен был обьединиться, но IBM вступила в союз всех-кроме-Sun под названием OSF и возникшим вакуумом смогли воспользоваться предприимчивые маркетологи Microsoft. NT была пустышкой, но Microsoft пообещала помощь в ее переносе на MIPS, Alpha и даже IBM/Motorola PowerPC. Компания обещала, что в NT будут работать 16-битные программы OS/2 и POSIX билиотеки Unix. Microsoft так же обещала единообразный API Win32, позволяющий запускать программы и на NT и на Windows машинах на основе DOS. В 1993 году участники Unix-войн осознали угрозу и подписали единую „Spec 1170“, но это уже никого не волновало. Несуществующая платформа позволила Microsoft удержать клиентов. Microsoft предлагала покупателям подождать 32-битную версию Windows, Chicago, которая должна была выйти в 1993 году. Она все еще базировалась на DOS, но предлагала пользователем многие преимущества OS/2 вроде длинных имен файлов — и должна была работать на 4 мегабайтах. Так же они дожны были готовиться к убийце Unix, Windows NT. NT должна была не просто убить Unix, но и со временем превратиться во всеобьемлющую, всемогущую, обьектно-ориентированную систему Cairo. Обещания уходили за облака. IBM осознала, что у нее остался последний шанс вернуть рынок и хотя бы часть многомиллиардных затрат на разработку OS/2. Осенью 1994 была запущена изрядно оптимизированная версия OS/2 3.0 — Warp — сопровождаемая непривычной для IBM массовой рекламой по телевидению. Она поставлялась в двух вариантах — один включал Windows, другой использовал уже установленную на жесткий диск Windows. IBM гораздо раньше чем Microsoft осознала потенциал интернета — это была первая ОС, в поставку которой входил браузер. Microsoft в это время была занята амбициозным проектом тщательно огороженного сада, „убийцы Compuserve“, который должен был войти в Chicago, и даже не включила стек TCP/IP в Windows. На короткое время OS/2 захватила воображение небольшой части покупателей, но так и не смогла изменить ситуацию на рынке — во многом потому, что из всех крупных производителей PC только сама IBM решилась продавать компьютеры с предустановленной OS/2. Служба поддержки IBM не умела работать с неподготовленными пользователями. Новых пользователей OS/2 встречал трудоемкий процесс установки, слабая поддержка железа, малое число родных приложений. OS/2 поддерживала приложения Windows так хорошо, что при отсуствии опасных конкурентов среди родных приложений OS/2 все серьезные разработчики сосредоточились на гораздо более выгодном рынке Windows. В итоге Chicago вышла только в 1995 году под названием Windows 95 и не работала на 4 мегабайтах. NT была слишком большой и медленной для рынка, на ней не хватало офисных приложений — обещание переносимости Win 32 так и не было выполнено. NT вышла еще через год и пользователи потребовали оболочку Windows 95. К тому времени архитектура системы изменилась так сильно, что большинство обещанных особенностей так и не были реализованы. Microsoft ввела ограничения на количество сетевых соединений для рабочих станций (которые для этого могли использоваться как сервера отделов) и переместила графические драйвера в ядро, пожертвовав надежностью ради производительности. Про Cairo тихо забыли. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Последний рывок к славе» Нажмите, для открытия спойлера | Press to open the spoiler « Поздним летом 1996 IBM признала свое поражение и перевела большую часть программистов на другие задачи. Она выпустила еще одну версию OS/2 в 1996, включив в нее распознавание голоса и более привычный интерфейс. Поддержка этой системы продолжалась много лет. Но война была окончена — Microsoft победила. В бессмысленности дальнейшего развития OS/2 CEO IBM Лоу Герстнера (Lou Gerstner) окончательно убедила смерть родных приложений OS/2. Частично в этом была виновата сама IBM. Знаменитая стратегия „Workplace OS“ подразумевала запуск персонализированных вариантов ОС поверх микроядра — но не смогла привлечь клиентов и так и не была доведена до конца. Больше 2000 разработчиков занимались переносимой версией OS/2, в основном рассчитанной на рабочие станции IBM с RISC процессорами, но так и не довели ее до стабильного состояния. Совместный с Apple проект объектно-ориентированной ОС Taligent окончился ничем. IBM не смогла купить Apple. Цепкая стратегия Microsoft Win32 покорила рынок. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« WPS – WTF?!?» Нажмите, для открытия спойлера | Press to open the spoiler « Workplace Shell впервые появилась в OS/2 версии 2.0, выпущенной в апреле 1992 — одновременно с Windows 3.1. Нет панели задач, нет каталога с программами, нет системного меню, нет меню выключения… все приложения размещаются в каталоге „Система“. Минимизированные приложения уходят в папку. В OS/2 был радикально новый интерфейс, в котором не хватало многих элементов современных UI. Откуда же он взялся? Он родился из планов IBM о создании „офиса будущего“ — в исследовательских лабораториях придумали в буквальном смысле слова обьектно-ориентированную функциональность — вот она в печатной рекламе 1990 года, предшествующей Workplace Shell. Над OfficeVision работало 1500 программистов, но проект так и не был завершен. Чтобы сдержать данное клиентам обещание о разработке среды для совместной работы IBM в 1996 году купила Lotus. Такие средства автоматизации офисной работы было сложно продавать, но IBM подчеркивала их гибкость. Они были настолько гибкими, что вы могли менять шрифт и фоновое изображение у каждого окна и каждого элемента окна индивидуально. Были у Workplace Shell и более полезные возможности. Подобно Mac ярлыки (ссылки) на файлы отслеживали их перемещение. Каталоги-шаблоны могли содержать приложения и быстро клонироваться. Закрытие каталога минимизировало все приложения и документы, которые были с ним связаны. Были и другие странности. По умолчанию иконки нельзя было двигать мышью, хотя это быстро изменялось в настройках. В последнюю версию OS/2 включили намного более привычные элементы. Системное меню давало быстрый доступ к каждому файлу, а над внешним видом иконок поработала дизайнер иконок Mac Сьюзан Кар (Susan Kare), которая также делала иконки для Windows 3.0. По каким-то причинам IBM сделала оглушительные звуки для каждого действия мышью (например перетаскивания). »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Почему IBM проиграла?» Нажмите, для открытия спойлера | Press to open the spoiler « Вокруг восхождения Microsoft на вершину отрасли PC до сих пор бурлят страсти. Если бы в 1987 вы сказали, что Intel и Microsoft 10 лет будут определять будущее отрасли, над вами бы просто посмеялись. Intel никак не могла создать конкурентноспособный RISC чип, а Microsoft никогда не писала операционных систем. Но у вопросов „Почему Microsoft победила?“ и „Почему IBM проиграла?“ совсем разные ответы. IBM никогда раньше не сталкивалась с настолько предприимчивыми и безжалостными конкурентами, как Билл Гейтс. Гейтс сражался отчаянно и IBM так и не смогла от него избавится. Но вне зависимости от наличия OS/2 IBM могла бы переиграть его или даже банально задавить массой если бы разработала связную стратегию, дающую покупателям веские причины тратить деньги на IBM. IBM могла осознать, что в 1988 году OS/2 была слишком революционной для покупателей. Она могла перехватить контроль над DOS и предложить клиентам более плавный переход в мир графических интерфейсов. На самом деле IBM именно это и пыталась сделать с проектом под названием PM for DOS — который так и не был завершен. Было уже слишком поздно. IBM могла купить Apple с самым привлекательным пользовательским интерфейсом и поставить его на прочный технологический фундамент. В качестве еще более революционного решения IBM могла осознать, в чем на самом деле заключается ценность программного обеспечения и перенести соперничество на уровень выше — создав бесплатную платформу вроде Linux. Можно предложить много вариантов альтернативной истории — но большинство из них останутся игрой воображения. После того как Microsoft набрала силу и захватила умы разработчиков „единой платформе“ OS/2 было бы очень сложно вернуть их назад. Интереснее другой вопрос — почему Microsoft победила? Прежде всего Microsoft безжалостно следовала требованиям рынка и заботилась лишь о количестве проданных копий Windows, ее не волновало отношение окружающих и теоретическая правильность предпринимаемых действий. Рынок не любил Microsoft, но Microsoft приносила рынку деньги. Производители программ, железа, периферии — все они зарабатывали больше с Microsoft. Программы бесили вас каждый день, но „экосистема“ в целом вглядела намного здоровей. IBM не имела ни малейшего представления о том, как строить новые экосистемы. Высокое начальство считало, что если они сделают систему и она будет хорошей (а она в конце концов стала такой), то покупатели найдутся — просто в силу магической силы трех букв IBM. Команда продаж IBM освоила много темных методов, включая использование других продуктов и услуг IBM, но они мало помогли в открытой схватке на ножах с Биллом Гейтсом. Microsoft была полностью сосредоточена на одной задаче. Она не шла на компромиссы ради умиротворения подразделений, занятых другими продуктами. Гейтс не собирался, как многим тогда казалось, ограничиваться написанием приложений и инструментов для чужих платформ. Он хотел свою платформу. Microsoft очень хорошо поработала над Windows. Само собой огромным преимуществом Microsoft были крайне жесткие условия лицензионных соглашений. Производители PC должны были платить Microsoft за DOS вне зависимости от того, устанавливали ли они ее на компьютеры или нет — так зачем им было устанавливать альтернативы? В конце концов Microsoft проиграла антимонопольный иск и была вынуждена уступить требованиям Novell, Be и Sun. Но не забывайте, что для танго нужны двое. Частично в этом виноваты и недальновидные производители PC. OEM-производители не стали протестовать против подобной политики Microsoft и позже это ударило по ним самим. После гибели конкурентов Microsoft подняла цены — это одно из примуществ монопольного положения. По мере падения цен на компьютеры все большая часть цены уходила Microsoft. Когда-то высокие прибыли OEM резко упали. Ни один из них не мог выделиться из общей массы, Microsoft не позволяла этого — она настаивала на единообразном „Windows experience“. Иногда для бизнеса выгодней пожертвовать текущими прибылями ради поддержания конкуренции и сохранения будущих прибылей. Многие активно занимаются этим — но не отрасль PC. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« В последовавших за окончанием войны ОС разбирательствах многие поклонники OS/2 обвиняли компьютерную прессу в тотальной враждебности к этой системе. Во многом они были правы — журналистов, которые использовали и хвалили OS/2 можно пересчитать на пальцах одной руки. Одним из них был Джон Леттис (John Lettice), основатель The Register — другим ваш покорный слуга. Красивый сувенир OS/2 2.0 с иллюстрации выше все еще стоит в нашем офисе. Но пресса просто отражала общепринятые тогда мнения и экономические решения. Она тоже не хотела мира, в котором IBM определяет стандарты открытых систем. Все были так заняты сражениями уходящей войны, что не заметили приближения новой. В 1995 году, когда война ОС все еще бушевала в Usenet (хотя всем было ясно, кто победил), Гай Кевней (Guy Kewney) так подытожил свое раздражение: Мои друзья говорят мне, что Microsoft спасет нас от IBM. Но кто спасет нас от Microsoft?Источник: geektimes PS А коробочная Warp version 3Ю 1995 года, c парой дискет и 4-мя СD: самой, Lotus Notes Express и Bonus Pak-ом, и книжечками User Guid и все-все-все лежит, как память. | |
| |
17.11.2015 - 21:58 |
HugoBo-SS
тут-та-ту
[SoftoRooMTeaM]
Группа: Модераторы Сообщений: 10.906 Регистрация: 3.04.2008 Из: Russia SPb Пользователь №: 827.869
Респектов: 4350
| Alpha: история в фактах и комментариях 1
Этот труд посвящён Alpha процессорам, наборам системной логики и архитектуре в целом. Это не просто обзор, но в то же время и без претензий на звание исключительно технической справки. Откровенно говоря, рассматривается вся история архитектуры Alpha, от самых начал и до наших дней. Впрочем, статья содержит большое количество разнообразной справочной информации, поскольку иначе она была бы весьма неполной и нелёгкой для понимания. Нельзя вести серьёзный разговор на историческую тему без предоставления фактов в подтверждение своей точки зрения и без их анализа. Возможно, эта статья смотрелась бы получше, если бы была написана и опубликована несколько лет назад, когда Alpha системы ставили очередные рекорды производительности, a их будущее ожидалось совсем не таким, каким оно выглядит с точки зрения дня сегодняшнего. Как знать. Однако, именно в наше время можно подвести финальную черту, объяснить, что же на самом деле произошло и почему одна из самых интересных и перспективных компьютерных архитектур оказалась брошенной в забвение. PDP и VAX
» Нажмите, для открытия спойлера | Press to open the spoiler « Digital Equipment Corporation (сокращенно DEC), основанная в 1957 двумя инженерами, Кеннетом Ольсеном (Kenneth Olsen) и Харланом Андерсоном (Harlan Anderson), выпускниками Массачусетского технологического института, была одной из старейших и наиболее значимых компаний мировой компьютерной индустрии. До основания компании, Ольсен работал в Линкольнской лаборатории при том же институте и участвовал в разработке одного из первых транзисторных компьютеров под названием TX-2. Кстати, эта лаборатория в те годы пользовалась активной финансовой поддержкой Министерства обороны США. Первое время компания разрабатывала и продавала элементарные модули для вычислительной техники, но уже в 1960 представила свой первый компьютер, 18-битный PDP-1 (Programmable Data Processor - 1), способный производить около 100 тыс. операций в секунду. Кроме всего прочего, именно на нём была написана первая в известной истории компьютерная игра, Spacewar Стивена Рассела (Steven Russell). 12-битный PDP-8, запущенный в производство в 1964, вполне заслуженно считают первым серийно выпускаемым "миникомпьютером" из-за довольно компактных размеров (с небольшой шкаф или холодильник) и невысокой цены — около 18000 USD (1965) в базовой комплектации. Благодаря отличному соотношению цены и производительности, этот компьютер смог составить достойную конкуренцию знаменитым мэйнфрэймам IBM. К 1968 было произведено около 1450 машин (не считая поздних многочисленных модификаций), когда был представлен 36-битный PDP-10, основанный на дизайне экспериментального PDP-6 и рассчитанный на использование в центрах обработки данных, исследовательских лабораториях и для военных нужд. Работы над усовершенствованием 36-битной архитектуры продолжались в рамках проекта "Единорог" (the Unicorn project) под руководством Леонарда Хьюджеса (Leonard Hughes) и Дэвида Роджерса (David Rogers), но в июне 1975 проект был закрыт, а все его ресурсы были переведены на поддержку новой 32-битной архитектуры. 16-битный PDP-11, запущенный в производство в начале 1970-х, являлся наследником модельного ряда PDP-8, хотя и характеризовался многочисленными усовершенствованиями. В частности, он был первым компьютером DEC, в котором использовались 8-битные байты. Благодаря простой и удачной архитектуре, основанной на системной шине Unibus (или её модификации под названием Q-bus), довольно эффективному набору инструкций и невысокой производственной стоимости, модельный ряд PDP-11 обрёл большую популярность. Вполне закономерно, что PDP-11 вскоре стали широко клонировать, в том числе и в "странах народной демократии": СМ-4 (СССР, Болгария, Венгрия), СМ-1420 (СССР, Болгария, ГДР), СМ-1600 (СССР), ИЗОТ-1016 (Болгария), ДВК (СССР). Для PDP-11 было разработано множество операционных систем: P/OS, RSX-11, RT-11, RSTS/E, а также несколько вариантов DOS. В конце концов в Bell Laboratories на PDP-7 и PDP-11 в 1971 было сделано первое издание ОС UNIX, тогда ещё на ассемблере. PDP-11 ушёл с рынка в течение 1980-х по одной, но неизбежной причине: недостаточный размер адресного пространства, который послужил причиной перехода на новую 32-битную, но все ещё CISC, архитектуру. Ей стала VAX (Virtual Address eXtension), официально утверждённая на заседании VAX Architecture Committee в апреле 1975. Эта архитектура стала логическим завершением нескольких месяцев работы проекта "Звезда" (the Star project) под руководством Гордона Белла (Gordon Bell). Этот проект осуществлялся параллельно с вышеупомянутым проектом "Единорог", но был сочтён более перспективным. Если коротко, то задачей проекта "Звезда" было измерение прироста производительности, полученного при увеличении разрядности целочисленных регистров PDP-11 с 16 бит до 32 бит и их числа с 8 до 16, а также в связи с основательными изменениями в наборе команд. В октябре 1977 был анонсирован первый представитель новой архитектуры, модель 11/780. Несколько месяцев спустя, в феврале 1978, была выпущена новая операционная система для VAX'ов, VMS (Virtual Memory System) версии 1.0. К слову, эта ОС, многопользовательская и многозадачная, поддерживала до 64Мб оперативной памяти, встроенные сетевые функции (DECnet), адаптивный планировщик задач, расширенное управление процессами и многие другие возможности, значительно опередившие своё время. Переименованная в VAX/VMS и основательно обновлённая, в апреле 1980 вышла версия 2.0. На VAX также была портирована классическая UNIX ОС. VAX'ы производились и продавались с успехом в течение 1980-х. Даже на рубеже веков они поставлялись ограниченными партиями по спецзаказам. Модельный ряд насчитывал несколько десятков наименований: от компактных рабочих станций (MicroVAX) до 6-процессорных серверов мэйнфрэйм-класса. На протяжении 1980-х DEC выпускала несколько поколений процессоров VAX на основе собственных CMOS технологических процессов: CVAX в 1985 (12МГц максимум, 0,2 млн. транзисторов, 2,0µ CMOS1), Rigel в 1987 (37МГц максимум, 0,4 млн. транзисторов, 1,5µ CMOS2), Mariah в 1989 (63МГц максимум, 0,8 млн. транзисторов, 1,0µ CMOS3). Последние два процессора этой архитектуры под названиями NVAX и NVAX+ были выпущены в 1992 году. Оба процессора располагали 1,3 млн. транзисторов и производились по собственному 3-слойному 0,75µ CMOS4 техпроцессу. Максимальная тактовая частота NVAX составляла 83,3МГц, а NVAX+ — 90,9МГц. Хотя они и основывались на одном и том же функциональном дизайне, NVAX поддерживал унаследованные шинные интерфейсы, в то время как NVAX+ был совместим с Alpha 21064 (EV4). И в наше время тысячи VAX'ов работают в структуре Министерства обороны США и NSA (National Security Agency), а также во многих коммерческих организациях. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Проект PRISM
» Нажмите, для открытия спойлера | Press to open the spoiler « В начале 1980-х DEC была на вершине финансового могущества, в значительной мере благодаря стабильно растущим объёмам продаж VAX'ов и программного обеспечения к ним. Тем не менее, ничто не вечно и было очевидно, что в своё время и VAX придётся уйти с рынка в пользу какой-нибудь более сложной и гибкой архитектуры, как это уже происходило с PDP-11. В то время многие компании начали обращать внимание на перспективные разработки в среде RISC, да и DEC явно не желала остаться в стороне. С 1982 по 1985 в составе компании активно работали несколько команд, занимавшихся исследованиями в области RISC: Titan, высокоскоростная разработка Западной исследовательской лаборатории (Western Research Laboratory; DECwest) в Пало-Альто (Калифорния, США), под руководством Фореста Бэскетта (Forest Baskett), с 1982; SAFE (Streamline Architecture for Fast Execution), под руководством Алана Котока (Alan Kotok) и Дэвида Орбица (David Orbits), с 1983; HR-32 (Hudson RISC 32-bit), при полупроводниковой фабрике DEC в Хадсоне (Массачусетс, США), под руководством Ричарда Витека (Richard Witek) и Дэниела Добберпуля (Daniel Dobberpuhl), с 1984; CASCADE Дэвида Катлера (David Cutler) в Сиэтле (Вашингтон, США), с 1984. В 1985, с подачи Катлера касаемо создания так называемого корпоративного RISC-плана, все 4 проекта были объединены в один под названием PRISM (PaRallel Instruction Set Machine), и совместными усилиями к августу 1985 была подготовлена первая спецификация на новый RISC-процессор. Стоит упомянуть, что к тому времени DEC уже принималa активное участие в разработке процессора MIPS R3000 и даже инициировала создание консорциума Advanced Computing Environment для продвижения архитектуры MIPS на рынке. Нет ничего удивительного в том, что разрабатываемый процессор унаследовал много черт, присущих архитектуре MIPS, но в то же время и отличия были очевидны. Все команды имели фиксированную длину в 32 бита, из них верхние 6 и нижние 5 были собственно кодом команды, а остальные 21 предназначались для непосредственно данных либо их адресации. Были определены 64 основных 32-битных целочисленных регистрa (MIPS определяла 32), а также 16 дополнительных 64-битных векторных регистра и 3 контрольных регистра для векторных операций: два 7-битных (vector length и vector count) и один 64-битный (vector mask). Регистр состояния процессора отсутствовал, поэтому результат сравнения двух скалярных операндов помещался в целочисленный регистр, а результат сравнения двух векторных операндов — в vector mask. Встроенный блок вычислений с плавающей запятой не предусматривался. Также присутствовал набор специальных инструкций под названием Epicode (Еxtended processor instruction code), реализованных программно (посредством загружаемого микрокода) и предназначавшихся для облегчения решения специальных задач, присущих определённой среде или операционной системе и не предусмотренных стандартным набором команд. Впоследствии эта функция была реализована в архитектуре Alpha под названием PALcode (Privileged Architecture Library code). К 1988 проект был всё ещё в стадии разработки, когда высший менеджмент DEC закрыл его, посчитав дальнейшую поддержку нецелесообразной. Протестуя против этого решения, Катлер уволился и ушёл в Microsoft, где возглавил подразделение по разработке Windows NT (в то время называвшейся OS/2 3.0). В начале 1989 DEC представила свои первые рабочие станции с RISC-процессорами, DECstation 3100 на основе 32-битного MIPS R2000 с частотой в 16МГц и DECstation 2100 на основе того же процессора, но с частотой в 12МГц. Обе машины работали под ОС Ultrix и стоили довольно умеренно, например, около 8000 USD (1990) за DECstation 2100 в стандартной конфигурации. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Проект Alpha
» Нажмите, для открытия спойлера | Press to open the spoiler « В 1989 морально стареющая архитектура VAX уже с трудом могла конкурировать с RISC-архитектурами 2-го поколения, такими как MIPS и SPARC, и было вполне очевидно, что следующее поколение RISC оставит VAX немного шансов на выживание. В середине 1989 перед инженерами DEC была поставлена задача по созданию конкурентноспособной RISC-архитектуры с перспективным потенциалом, в то же время минимально несовместимой с VAX, чтобы облегчить перенос на неё VAX/VMS и всей сопутствующей программной базы. Также было определено, что новая архитектура должна изначально быть 64-битной, так как конкуренты уже были в процессе перехода на 64-битные решения. Была создана рабочая группа, в которой главными архитекторами были Ричард Витек и Ричард Сайтс (Richard Sites). Первое официальное упоминание об архитектуре Alpha датируется 25 февраля 1992 на конференции в Токио. Одновременно в небольшом обзоре для USENET-конференции comp.arch были перечислены ключевые моменты новой архитектуры. Там же было оговорено, что "Alpha" является кодовым именем нового процессора, а рыночное название будет представлено позже. Процессор обладал "чистой" 64-битной RISC-архитектурой с инструкциями фиксированной длины по 32 бита каждая, 32 64-битными целочисленными регистрами, а также работал с 43-битным виртуальным адресным пространством, которое могло быть расширено вплоть до 64-битного в будущих представителях архитектуры. Как и в VAX, использовался little-endian порядок следования байт (то есть, когда младший байт регистра занимает при записи младший адрес в памяти; поддерживался Intel в противовес к big-endian, изначально внедрённому Motorola и используемому большинством процессорных архитектур того времени, когда старший байт регистра занимает при записи младший адрес в памяти). Математический сопроцессор был изначально интегрирован в ядро вместе с 32 64-битными вещественными регистрами. Кстати, использовался произвольный доступ к ним в отличие от примитивного стэкового, практикуемого сопроцессорами Intel x87. Срок службы новой архитектуры был определен, как минимум, в 25 лет. Поддерживаемый набор команд был упрощён с целью максимального облегчения конвейеризации и состоял из 5 групп: команды для целочисленных вычислений; команды для вещественных (с плавающей запятой) вычислений; команды обработки переходов и операций сравнения; команды загрузки и сохранения данных; команды PALcode. Стоит отметить, что команды целочисленного деления аппаратно отсутствовали, так как являлись наиболее сложными в расчётном плане и плохо поддавались конвейеризации, а поэтому просто эмулировались. Это было вполне приемлемо, так как на практике необходимость в командах этого типа появлялась относительно редко, особенно учитывая возможность использования команд сдвигов (shifts) для многих целочисленных операций деления и умножения. Архитектура Alpha была настоящей RISC, в отличие от микроархитектур x86 прошлого и настоящего начиная с NexGen 586, Intel P6 и AMD K6. Фактически, их можно считать RISC только на уровне функциональных устройств процессоров. Концептуально разница между RISC (Reduced Instruction Set Computing) и CISC (Complex Instruction Set Computing) состояла (и до сих пор состоит) в нескольких моментах: Примечание: Данная таблица относится только к процессорам общего назначения, поскольку цифровые сигнальные процессоры (DSP) и прочие встраиваемые процессоры значительно от них отличаются. К слову, их наборы команд типично малы из-за высокого уровня специализации решений. Процессор предполагалось запустить в производство на очень высокой для того времени тактовой частоте — 150МГц, которую планировалось довести до 200МГц при тех же конструкторских нормах. Это оказалось возможным как благодаря удачной архитектуре, так и благодаря отказу разработчиков от использования систем автоматического проектирования и выполнению всех работ по схемотехнике исключительно вручную. Проект вступил в производственную стадию и вскоре был реорганизован в регулярное подразделение DEC. Трудами отдела маркетинга DEC новая архитектура получила название AXP (или Alpha AXP), хотя до сих пор неизвестно, аббревиатурой чего было это недоразумение. Вполне возможно, что и ничего. В прошлом DEC имела проблемы с торговой маркой VAX, на которую претендовала компания по производству пылесосов, и тогда дело дошло до суда. Также мотивировалось, что рекламный слоган этой компании ("Nothing sucks like a Vax!" — "Ничто не сосёт так, как Vax!") дискредитирует продукцию DEC. Так что вскоре в компьютерном мире появилась шутка, что AXP означает это "Almost eXactly PRISM", то есть "почти точно PRISM". »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Alpha 21064 (EV4, EV45) and 21066 (LCA4, LCA45)
» Нажмите, для открытия спойлера | Press to open the spoiler « Первый процессор из семейства Alpha получил название 21064 ("21" указывал, что Alpha — это архитектура XXI века, "0" — процессорное поколение, "64" — разрядность в битах) и кодовое наименование EV4 ("EV" является [предположительно] аббревиатурой "Extended VAX", а "4" — поколением технологического процесса, CMOS4; в свою очередь, CMOS есть аббревиатура Complementary Metal Oxide Semiconductor). Стоит отметить, что прототип EV4 был готов ещё в 1991, хотя и на основе менее детализированного CMOS3 техпроцесса, а поэтому с уменьшенными кэшами и без блока вычислений с плавающей запятой. Тем не менее, он сыграл свою роль в отладке архитектуры и программного обеспечения. EV4 был представлен в ноябре 1992 на COMDEX в Лас-Вегасе (Невада, США) и поступил в производство на собственном 3-слойном 0,75µ техпроцессе (впоследствии производство было переведено на оптическую модификацию CMOS4 — 0,675µ CMOS4S). Состоял из 1,68 млн. транзисторов, обладал площадью ядра в 233мм² и был рассчитан на напряжение питания в 3,3В. Выпускался с тактовыми частотами от 150МГц до 200МГц (ТDP от 21Вт до 27Вт). Поддерживал работу в многопроцессорном режиме как один из ключевых моментов архитектуры. Форм-фактор: PGA-431 (Pin Grid Array). Кэш-память L1 была интегрирована: 8Кб для команд (I-cache, instruction cache), с прямым отображением (direct-mapped), а также 8Кб для данных (D-cache, data cache), с прямым отображением и сквозной записью (write-through). Задержки при чтении из D-cache составляли 3 такта. Каждая строка I-cache состояла из 32 байт команд, 21-битного тэга, 8-битного поля истории переходов и нескольких вспомогательных полей. Каждая строка D-cache состояла из 32 байт данных и 21-битного тэга. Кэш-память L2 (B-cache, back-up cache) был рекомендуемой опцией, набирался на микросхемах синхронной или асинхронной статической памяти, работал в режиме обратной записи (write-back) с прямым отображением и упреждающим чтением (read-ahead), мог иметь размер до 16Мб (обычно от 512Кб до 2Мб). Каждая строка B-cache состояла из 32 байт данных или команд с 1-битным long-word parity или 7-битным long-word ECC, максимум 17-битного тэга с 1 битом чётности и 3 битов состояния с 1 битом четности. Скорость чтения/записи B-cache программировалась в тактах процессора. Системная шина данных была шириной в 64 или 128 бит (программируемо, с 1-битным long-word parity или 7-битным long-word ECC) и мультиплексировалась с шиной данных к B-cache, так что физические линии переключались при необходимости между этими логическими шинами. Ширина системной шины адреса составляла 34 бита. Организационно B-cache был включающим (inclusive) D-cache, то есть поддерживал полную копию содержимого последнего. Операции чтения/записи в B-cache являлись прерогативой исключительно процессора, но системной логикe было разрешено чтение файла тэгов (B-tag), что было удобно для обеспечения согласованности (cache coherence) B-cache. Другими словами, системная логика могла проверять содержимое B-cache во время так называемых отслеживающих операций (snoop operations) без вмешательства процессора. EV4 имел один целочисленный конвейер (E-box, 7 стадий) и один вещественный конвейер (F-box, 10 стадий). Декодер и планировщик инструкций (I-box) был в состоянии подавать 2 команды за такт в порядке очереди (in-order) на исполняющие устройства, то есть на E-box, F-box и блок загрузки/сохранения (A-box). Контроллер кэш-памяти и системной шины (C-box) работал в тесном взаимодействии с A-box и управлял как интегрированными I-cache и D-cache, так и внешним B-cache. Расчёт виртуальных адресов входил в компетенцию E-box. Также присутствовал блок предсказания переходов (branch prediction unit) с таблицей переходов на 4096 записей (branch history table) по 2 бита каждая. I-TLB (Instruction TLB) обладал 8 записями для 8Кб страниц и 4 записями для 4Мб страниц, а D-TLB (Data TLB) — 32 записями для страниц размером от 8Кб до 4Мб. Оба TLB были полностью ассоциативны (fully-associative). Первая рабочая станция архитектуры Alpha от DEC была выпущена в ноябре 1992, DEC 3000 Model 500 AXP (кодовое имя Flamingo), с 150МГц 21064, 512Кб B-cache, 32Мб оперативной памяти, интегрированным 8-битным видеоконтроллером с 2Мб VRAM, SCSI HDD на 1Гб, SCSI CD-ROM, встроенным контроллером Ethernet 10Мбит (толстый коаксиал и витая пара), встроенным звуковым и ISDN контроллером, а также с 19-дюймовым монитором (1280х1024x72Гц). Вся периферия обслуживалась шиной TURBOchannel собственной разработки. Цена была впечатляющей: 39 тыс. USD, хотя предлагалась и более дешёвая DEC 3000 Model 400 AXP (с 133МГц 21064), но всё же была необходимость в более доступном решении. DEC пыталась создать персональный компьютер на основе 21064 и периферийной шины EISA или ISA начиная с февраля 1991. Было успешно спроектировано и выпущено 35 систем в рамках проекта Бета (the Beta project), каждая из которых обладала 100МГц прототипом EV4, набором системной логики Intel 82380 с поддержкой шины ISA, а также многим другим аппаратным обеспечением как собственного производства, так и доступного на рынке. Последующий проект Тета (the Theta project) постигла неудача из-за ошибок при проектировке материнской платы на основе набора системной логики Intel 82350DT с поддержкой шины EISA. Тем не менее, две команды разработчиков из Мэйнарда (Массачусетс, США) и Эйра (Шотландия, Великобритания) сумели устранить неполадки и выпустили DECpc AXP 150 (кодовое имя Jensen) в августе 1992. Эта машина располагала 150МГц EV4, 512Кб B-cache, материнской платой формата AT, стандартными 72-контактными FPM parity SIMMs и EISA периферией. Хотя DECpc AXP 150 работал с DEC OSF/1 и OpenVMS, но его будущее всё же связывалось с Windows NT. Он был представлен 28 октября 1992 в Нью-Йорке (Нью-Йорк, США) на презентации Windows on Wall Street, когда Билл Гэйтс впервые продемонстрировал общественности свою новую ОС. Также имелось три семейства серверов на основе 21064: 2-процессорные DEC 4000, 6-процессорные DEC 7000 (с 182МГц процессорами) и DEC 10000 (с 200МГц процессорами). DEC 7000 и DEC 10000 были модульными машинами, которые располагали по 4Мб B-cache на каждый процессор и до 14Гб оперативной памяти (с 7 установленными 2Гб модулями). В то время как DEC 4000 был рассчитан на работу с периферийной шиной FutureBus+, DEC 7000 и DEC 10000 также могли быть сконфигурированы для работы с периферийной шиной XMI (при установке соответствующего модуля или даже нескольких). DEC 7000 и DEC 10000 под названиями VAX 7000 и VAX 10000 предлагались с процессорами NVAX+ (переконфигурация была возможна путём простой замены процессорных модулей). Несмотря на отличную производительность, 21064 был довольно дорог для значительной части потенциальных покупателей, а поэтому в сентябре 1993 был анонсирован его бюджетный собрат, 21066 (LCA4 или LCA4S). Этот процессор был основан на ядре 21064, но с дополнительно интегрированными контроллерами оперативной памяти и шины PCI, а также некоторыми второстепенными функциональными блоками. Однако, разрядность системной шины данных была урезана до 64 бит, что негативно сказалось на производительности. LCA4 производился по 0,675µ CMOS4S техпроцессу и его площадь оказалась ещё меньше, чем у оригинального EV4 (209мм² по сравнению с 233мм²), а тактовые частоты были занижены (от 100МГц до 166МГц), в значительной мере из-за потенциальной угрозы перегрева в плохо вентилируемых настольных системных блоках того времени, а также чтобы не создавать дополнительной конкуренции EV4. Количество транзисторов в ядре составило 1,75 млн., a напряжение питания — 3,3В. Дизайн этого процессора был лицензирован Mitsubishi, которая также производила LCA4, включая и 200МГц версию. В октябре 1993 на Microprocessor Forum был анонсирован 21064А (EV45) — обновлённая версия EV4, производимая по собственному 4-слойному 0,5µ CMOS5 техпроцессу. В ноябре 1994 на COMDEX был представлен 21066А (LCA45), почти аналогично модифицированная версия LCA4. Стоит отметить, что манера маркетологов DEC добавлять букву к модели процессора при перепланировке ядра под новый техпроцесс сохранилась и в будущем. Собственно состав процессорных ядер изменился незначительно. EV45 теперь обладал удвоенным размером кэш-памяти L1 (16Кб I-cache + 16Кб D-cache), к полям данных и тэгам I-cache и D-cache было добавлено по биту чётности, поля истории переходов I-cache были расширены до 16 бит, ассоциативность D-cache была увеличена до 2 каналов (2-way set associative), а к режимам контроля над системной шиной данных был добавлен 1-битный byte parity. Также в EV45 и LCA45 был незначительно модифицирован F-box (оптимизация деления: в EV4 одна операция требовала 34 такта для операндов одинарной точности и 63 такта для операндов двойной точности вне зависимости от значений операндов; в EV45 она уже требовала от 19 до 34 тактов для операндов одинарной точности и от 29 до 63 тактов для операндов двойной точности в зависимости от значений операндов). LCA45 производился также и на мощностях Mitsubishi. Площади ядер уменьшились: до 164мм² у EV45 и до 161мм² у LCA45. Количество транзисторов в ядре EV45 возросло до 2,85 млн., а в ядре LCA45 осталось неизменным — 1,75 млн. В конечном результате, энергопотребление обоих процессоров в расчёте на единицу частоты сократилось, хотя напряжение питания осталось неизменным — 3,3В. Тактовые частоты 21064A составляли от 200МГц до 300МГц (TDP от 24Вт до 36Вт), а 21066A — от 166 до 233МГц. 21066 и 21066A, в основном, нашли своё применение в персональных компьютерах DEC UDB (Universal Desktop Box; кодовое имя Multia), хотя машины с этим названием также оснащались процессорами Intel Pentium. Помимо этого, 21066 и 21066A использовались в Tadpole ALPHAbook 1, первом (и единственном?) Alpha-ноутбуке. Так как DEC участвовала в разработках оборудования под заказ Министерства обороны США, то в 1994 были спроектированы процессоры 21068 (66МГц) и 21068А (100МГц), являвшиеся вариантами LCA4 и LCA45, адаптированными под военные нужды (пассивное охлаждение, переносимость к вибрации и жёстким температурным условиям, пр.). Например, к военному обородованию могли предъявляться требования по сохранению работоспособности в температурном режиме от -54 °C до +70 °C при 30-минутном допуске в +85 °C (взято из MIL-E-5400T, General Specification for Electronic Equipment, Aerospace от мая 1990). В 1986 DEC заключила соглашение с Raytheon Company о ведении совместных разработок для Министерства обороны, тогда ещё на основе архитектуры VAX (доработка VAX 6200). Проектирование DEC AXPvme 64 было завершено к 1994. В основе системы лежал 66МГц 21068 со стандартной для военного оборудования периферийной шиной VME64, а также некоторой PCI и ISA периферией, включая DEC 21040 Ethernet-контроллер. Этот модуль продавался как Raytheon Model 910. В июле 1994 были анонсированы первые рабочие станции на основе 21064A: DEC 3000 Model 900 AXP и Model 700 AXP (кодовые имена Flamingo45 и Sandpiper45 соответственно). Первая оснащалась 275МГц процессором, а вторая — 225МГц. Обе рабочие станции обладали 2Мб B-cache, 128Мб оперативной памяти, 24-битной видеокартой семейства ZLX, периферией FastSCSI и тем же сетевым, звуковым и ISDN аппаратным обеспечением, что и Model 500 AXP. Первая рабочая станция предлагалась по цене в 43,4 тыс. USD, вторая — в 27,7 тыс. USD. Первые наборы системной логики для архитектуры Alpha использовали периферийные шины TURBOchannel, FutureBus+ и XMI. В частности, безымянный набор для DEC 3000 состоял из 6 микросхем: 1 ADDR ASIC, 1 TC (TURBOchannel) ASIC, и 4 SLICE ASICs; последние обслуживали 128-битный канал данных системной шины, 256-битный канал данных шины памяти и 32-битный канал данных к TC ASIC. Хотя эта и другие реализации были весьма скоростными для своего времени (около 100Мб/с на шину), они не получили широкого распространения, а количество доступной периферии было небольшим. Поэтому DEC обратила внимание на новую перспективную шину PCI. В начале 1994 был представлен набор системной логики DEC Apecs в двух исполнениях: с 64-битной системной шиной данных (21071) и 128-битной (21072). Вся разница между ними состояла в том, что 21071 состоял из 4 микросхем (1 универсальный контроллер — COMANCHE, 2 микросхемы data slice — DECADE, 1 контроллер шины PCI — EPIC), а 21072 — из 6 (дополнительно ещё 2 DECADE). Поддерживал частоту системной шины в 33МГц, до 16Мб B-cache, до 4Гб памяти FPM parity со временем доступа от 100 до 50нс (8 банков) и до 16Мб двухпортовой VRAM (1 банк) для поддержки опционального буфера видеокадра. Поддержка шины ISA или EISA могла быть реализована посредством стандартного моста, такого как Intel 82378IB (ISA) или 82378EB (EISA). Использовался в материнских платах EB64+ и AlphaPC 64 (кодовое имя Cabriolet). »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Alpha 21164 (EV5, EV56) и 21164PC (PCA56, PCA57)
» Нажмите, для открытия спойлера | Press to open the spoiler « Первая информация о архитектуре своего Alpha-процессора 2-го поколения была опубликована DEC на конференции Hot Chips, которая состоялась 14 августа 1994 в Пало-Альто (Калифорния, США), хотя официальным анонсом 21164 (EV5) следует считать пресс-релиз DEC от 7 сентября 1994. Процессор основывался на ядре EV45 и содержал изменения скорее эволюционного характера, чем революционного. По сравнению с EV4 или EV45, ядро включало удвоенное количество конвейеров для целочисленной и вещественной математики, причём количество стадий вещественных конвейеров сократилось с 10 до 9. В то же время целочисленные конвейеры были неодинаковы: хотя оба могли выполнять элементарные арифметические и логические операции, но только в компетенцию 1-го входило выполнение команд умножения и смещения, и только по 2-му могли быть направлены команды условных/безусловных переходов. Оба целочисленных конвейера также могли вычислять виртуальные адреса для команд загрузки, однако только 1-й — для команд сохранения. Вещественные конвейеры были также неоднородны: 1-й мог выполнять любой код с плавающей запятой, кроме инструкций умножения, которые были теми единственными командами, что мог выполнять 2-й конвейер. Чтобы обеспечить эффективную загрузку функциональных устройств, I-box мог производить выборку и декодирование до 4 команд за такт. EV5 производился по тому же собственному 4-слойному 0,5µ CMOS5 техпроцессу, что и EV45, поэтому также был рассчитан на напряжение питания в те же 3,3В. Состоял из 9,3 млн. транзисторов (из них 7,8 млн. в виде интегрированных кэшей), обладал площадью ядра в 299мм², что было близко к теоретическому пределу для данного техпроцесса. Выпускался с тактовыми частотами от 266МГц до 333МГц (TDP от 46Вт до 56Вт). Форм-фактор: IPGA-499 (Interstitial Pin Grid Array). Размеры I-cache и D-cache остались как у EV4, то есть по 8Кб каждый со сквозной записью. Всё же D-cache теперь стал двухпортовым по чтению, то есть за 1 такт он мог поставить данные для 2 команд загрузки. Жертвуя транзисторами во имя быстродействия, D-cache физически был составлен из 2 одинаковых по содержанию частей размером в 8Кб каждая. Таким образом, чтение шло из любой части, а запись — одновременно в обе. Так как процессор обладал 96Кб интегрированной кэш-памяти L2 (S-cache, secondary cache) с обратной записью и 3-канальной ассоциативностью, то в структуру C-box была добавлена его поддержка. Доступ к S-cache осуществлялся через независимую 128-битную шину данных. B-cache всё ещё оставался опциональным, но обычно присутствовал и набирался на микросхемах синхронной статической памяти общим размером до 64Мб, хотя обычно составлял от 1Мб до 4Мб. 128-битная шина данных к B-cache по-прежнему мультиплексировалась с системной шиной данных. Таким образом, EV5 поддерживал 3 уровня кэш-памяти и был первым процессором с подобной иерархией. Доступ к S-cache был организован по принципу 4-стадийного конвейера: 2 такта на просмотр тэга и активацию банка плюс 2 такта на доступ к данным и доставку (16 байт за такт), хотя дополнительный такт требовался на транспортировку данных от C-box к D-cache и E-box или F-box. Инженеры, проектировавшие EV5, рассматривали возможность организации работы S-cache с параллельным просмотром тэга и доступом к данным, так что все 3 банка доставляли бы данные, нужные из которых затем отбирались бы. Это позволило бы сократить количество стадий до 3, но привело бы к значительному увеличению энергопотребления процессора (+40% ориентировочно). Однако, D-cache работал именно таким образом, хотя там был только 1 банк на 8Кб, а не 3 банка по 32Кб каждый. Более того, задержки на чтение из D-cache были уменьшены с 3 до 2 тактов. Каждая строка S-cache была размером в 64 байта с одним тэгом на строку, хотя имелась возможность адресации строк с разделением каждой на две подстроки размером по 32 байта, поскольку I-cache и D-cache работали с 32-байтными строками. S-cache был включающим по отношению к D-cache, а B-cache — по отношению к S-cache, несмотря на политику обратной записи последнего и разницу в ассоциативностях. Размер I-TLB был увеличен до 48 записей (для страниц размером от 8Кб до 4Мб), а D-TLB — до 64 записей (для 8Кб страниц), причём он стал двухпортовым при чтении (по аналогии с D-cache). Системная шина данных имела фиксированную ширину в 128 бит с дополнительными 16 битами для ECC и всё так же мультиплексировалась с шиной данных к B-cache, но поскольку уже использовался протокол с поддержкой разделяемых трасакций (split-transaction protocol), то её эффективность возросла. Системная шина адреса была 40-битной, управления — 10-битной. В октябре 1995 на Microprocessor Forum был представлен 21164А (EV56), незначительно модифицированная версия EV5, производимая по собственному 4-слойному 0,35µ CMOS6 техпроцессу на всё той же фабрике в Хадсоне (Массачусетс, США). Между прочим, для запуска этого техпроцесса DEC пришлось инвестировать в модернизацию фабрики около 450 млн. USD. Наиболее существенным архитектурным отличием можно считать BWX (Byte-Word Extension) — набор из 6 дополнительных команд для загрузки/сохранения данных размером в 8 или 16 бит (LDBU, LDWU, STB, STW, SEXTB, SEXTW). Изначально архитектура Alpha поддерживала загрузку/сохранение данных квантами исключительно по 32 или 64 бита, что создавало определённые сложности при портировании или эмуляции кода других процессорных архитектур, например, i386 или MIPS. Предложение о внедрении BWX в базовый набор команд Alpha появилось в июне 1994 с подачи Ричарда Сайтса и было утверждено в июне 1995. Правда, для успешной работы BWX требовалась поддержка как со стороны процессора, так и со стороны системной логики. Тактовые частоты 21164А составили от 366МГц до 666МГц (TDP от 31Вт до 55Вт), а производился он начиная с лета 1996. Согласно лицензионному соглашению с DEC от июня 1996, Samsung также выпускал EV56, причём 666МГц версию производил только он. Процессор состоял из 9,66 млн. транзисторов, обладал площадью ядра в 209мм² и требовал двойное напряжение питания (2,5В на основную логику и 3,3В на входные/выходные цепи). 17 марта 1997 был представлен 21164PC (PCA56), недорогой вариант EV56, спроектированный совместно DEC и Mitsubishi. В нём отсутствовал S-cache и соответствующая обслуживающая логика, зато размер I-cache был увеличен с 8Кб до 16Кб. Производился посредством того же CMOS5 техпроцесса и требовал 2,5В/3,3В напряжения питания. Состоял из 3,5 млн. транзисторов, обладал площадью ядра в 141 мм². 21164PC (PCA56) выпускался с тактовыми частотами от 400МГц до 533МГц (TDP от 26Вт до 35Вт). Форм-фактор процессора был изменён в пользу IPGA-413. В будущем, на производственных мощностях Samsung, также выпускался 0,28µ вариант 21164PC (PCA57), характеризовавшийся удвоенными размерами I-cache и D-cache, причём первый использовал 2-канальную политику ассоциативности. Количество транзисторов в его ядре увеличилось до 5,7 млн., а его площадь уменьшилась до 101 мм². Он также требовал пониженное напряжение питания (2,0В на основную логику и 2,5В на входные/выходные цепи). Тактовые частоты 21164PC (PCA57) составили от 533МГц до 666МГц (TDP от 18Вт до 23Вт). Кроме унаследованных от EV56 инструкций BWX, PCA56 и PCA57 поддерживали новый набор из 13 SIMD-команд (Single Instruction, Multiple Data) под названием MVI (Motion Video Instructions): упаковывающих (PACKWB, PACKLB), распаковывающих (UNPKBW, UNPKBL), выбирающих минимум (MINUB8, MINSB8, MINUW4, MINSW4) или максимум (MAXUB8, MAXSB8, MAXUW4, MAXSW4) и определяющей движение (PERR). Наиболее интересной являлась последняя, Pixel ERRor, которая обрабатывала 8 пикселов одновременно. В отличие от набора команд MMX для процессоров i386, который использовал вещественные регистры для хранения данных, MVI предпочитал целочисленные для этой же цели. Первым стандартным набором системной логики, разработанным для EV5, был DEC Alcor (21171). Он поддерживал 33МГц системную шину, до 16Мб ECC B-cache, до 8Гб FPM или EDO DRAM ECC с использованием 256-битного канала данных, а также одну 64-битную 33МГц шину PCI. Поддержка шины ISA или EISA могла быть реализована посредством стандартного моста, такого как i82378IB (ISA) или i82378EB (EISA). Встроенного контроллера IDE также не было, но он мог устанавливаться отдельной микросхемой другого производителя. Физически DEC Alcor состоял из 5 микросхем: 1 универсального контроллера с поддержкой шины PCI (Control, I/O and Address — CIA) и 4 коммутаторов данных (Data Switch — DSW). Новая редакция этого набора системной логики с добавлением поддержки BWX получила название DEC Alcor 2 (21172). Вскоре был выпущен и одномикросхемный DEC Pyxis (21174), который поддерживал 66МГц системную шину и до 1,5Гб 66МГц SDRAM ECC или parity, правда, используя уже 128-битный канал данных. Поддержка 64-битной 33МГц шины PCI сохранилась. Для конфигураций на основе 21164PC (PCA57) был разработан набор системной логики VLSI Polaris. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Крах DEC
» Нажмите, для открытия спойлера | Press to open the spoiler « 26 января 1998 компьютерный мир обошла новость, что находящаяся в критическом финансовом положении DEC была куплена Compaq Computer Corporation и что сделка находится в процессе утверждения собраниями акционеров обеих компаний. Акционеры DEC ратифицировали соглашение 2 февраля 1998. Сумма сделки составила 9,6 млрд. USD, что было значительно выше рыночной капитализации компании до продажи — приблизительно 7 млрд. USD. Начавшийся вскоре процесс интеграции подразделений DEC в структуры Compaq привёл к тому, что уже через полгода DEC окончательно прекратила своё существование, когда 11 июня 1998 её акции перестали котироваться на Нью-Йоркской фондовой бирже. Стоит отметить, что переговоры между DEC и Compaq велись ещё с 1995, но сорвались в 1996 из-за позиции высшего менеджента DEC, настаивавшего именно на слиянии компаний, а не на поглощении. Тем не менее, вполне закономерен вопрос: как могло так случиться, что огромная компания (по состоянию на 1989: почти 130 тыс. человек персонала, общий объём продаж около 14 млрд. USD в год, то есть второй показатель по отрасли после IBM), с очень высоким исследовательским потенциалом и значительной производственной базой, была вынуждена продать себя крупному сборщику компьютерной техники из Техаса? Однозначный ответ на этот вопрос никто так и не дал, хотя причины назывались всякие и разные. Давным-давно Кеннет Ольсен, основатель, президент и главный исполнительный менеджер DEC почти до самого её конца, сказал, что хорошие с инженерной точки зрения продукты продают себя сами. Следовательно, в рекламе или ином продвижении не нуждаются. Ему также принадлежит изречение, что нет причины, по которой каждый захотел бы иметь компьютер у себя дома. Возможно, эти мысли оправдывали себя в "добрые старые времена", когда компьютерная техника производилась в небольших количествах профессионалами для профессионалов и стоила немалых денег, но не в конце 20-го века, когда её продавали миллионами штук в год и когда самый обыкновенный компьютер можно было собрать максимум за час свободного времени при помощи отвёртки и комплектующих из ближайшей компьютерной лавки, причём за сумму, на порядок меньшую выплачивавшейся за шкафообразный агрегат из тех самых "добрых старых времён". В конце концов, можно было купить его целиком в том же магазине, да ещё и с бесплатной доставкой на дом. А если учесть, что покупать такой компьютер будет не профессиональный менеджер, прекрасно осознающий глубину смысла термина TCO (Total Cost of Ownership, совокупная стоимость владения), а некая тётя Маша или представитель подрастающего поколения Вовочка, в принципе не отличающие транзистор от резистора, то таких покупателей следует мотивировать явно не инженерными достоинствами потенциального приобретения. Ещё в самом начале развития архитектуры Alpha высшим руководством DEC был допущен большой стратегический просчёт. Первые прототипы EV4 были продемонстрированы DEC на компьютерной конференции в феврале 1991. Среди присутствующих были инженеры Apple Computer, которые в то время занимались поиском новой процессорной архитектуры для будущих компьютеров компании. Ничего удивительного, что возможности EV4 произвели на них впечатление. В июне того же года Джон Скалли (John Sculley), в то время главный исполнительный менеджер Apple, встретился с Кеннетом Ольсеном и предложил ему использовать новый процессор DEC в будущих Маках. Ольсен отказался, мотивируя тем, что процессор пока не готов для рынка, а архитектура VAX ещё не исчерпала своих возможностей. Через несколько месяцев было объявлено, что новые Маки будут использовать процессоры PowerPC от альянса Apple, IBM и Motorola. Таким образом, DEC упустила отличную возможность достижения хороших продаж Alpha-комплектующих в долговременной перспективе и продвижения архитектуры на рынке обычных компьютеров, а заполучила ещё одного конкурента. Позже Вильям Деммер (William Demmer), бывший вице-президент подразделений VAX и Alpha, ушедший в отставку в 1995, заявил в интервью Business Week от 28 апреля 1997: "Кен не хотел, чтобы будущее компании зависело от Alpha." DEC сама производила как процессоры Alpha, так и наборы системной логики для них на своей фабрике в Хадсоне (Массачусетс, США), а также многочисленную периферию. Она также разрабатывала и изготовляла материнские платы для обычных компьютеров и рабочих станций под названием "Evaluation Board" ("EB") или "AlphaPC", доступные по оптовым каналам, хотя и в довольно ограниченном ассортименте. Несмотря на то, что почти все Alpha сервера DEC за исключением некоторых моделей начального уровня были многопроцессорными, ни одна из этих материнских плат возможность установки 2 и более процессоров не поддерживала. Тем не менее, все материнские платы были выполнены на высоком техническом уровне, хотя и стоили недёшево, впрочем, как и процессоры Alpha. Документация по изготовлению этих плат была в свободном доступе, поэтому некоторые компании (Aspen, Polywell, Enorex, др.) производили их клоны. Единственной компанией, разработавшей и производившей свои платы, была DeskStation. В целом, можно смело утверждать, что приоритетом для DEC была продажа собственных рабочих станций и серверов, а не наполнение рынка основными комплектующими для их сборки. Конечно, такой подход к делу позволял добиться более высоких доходов в кратковременной перспективе, но шансы на завоевание большой доли рынка обычных компьютеров и рабочих станций можно было считать равными нолю. Несмотря на все попытки, DEC так и не смогла сделать цены на свою продукцию (в первую очередь, на процессоры, наборы системной логики и материнские платы) доступными большинству потенциальных покупателей. Например, 266МГц и 300МГц EV5 по состоянию на начало 1995 стоили соответственно 2052 и 2937 USD в партиях по 1000 шт. — непомерные цены, даже учитывая среднюю стоимость производства приблизительно в 430 USD за шт. В расчёте на один "попугай" SPECint92, EV5 стоил приблизительно в 2 раза дороже альтернативных RISC-процессоров других производителей. При этом стандартный набор системной логики к нему, DEC Alcor, продавался не в пример дешевле — 295 USD за каждый в партиях по 5000 шт. В то же время, материнская плата на его основе, EB164 с 1Мб B-cache, вместе с процессором и 16Мб оперативной памяти (чего, кстати, было явно недостаточно для многих задач того времени на Alpha), предлагалась по цене около 7500 USD. Хотя Alpha и была изначально объявлена открытой архитектурой, консорциум по её развитию так и не был создан. Разработки велись усилиями DEC, иногда сообща с Mitsubishi. Получалось, что хотя собственно архитектура и была свободной де-юре, её основные разработки являлись очень даже закрытыми де-факто и подлежали платному лицензированию (если вообще подлежали). Естественно, это мало способствовало успешному продвижению на рынке. Например, если бы DEC оставила EV4 и EV5 за собой, а LCA4 сделала открытой разработкой безо всяких дополнительных лицензионных отчислений или прочих обязательств, то этот ход мог бы серьёзно изменить расстановку сил на рынке обычных компьютеров. Стоит отметить, что вскоре после выпуска EV4 руководство DEC предлагало лицензировать производство процессора Intel, Motorola, NEC и Texas Instruments. Но эти компании имели собственные разработки и перспектива играть второстепенную роль в чужом театре их мало интересовала, а потому они отказались. Не исключено, что условия могли быть неприемлемы или что-нибудь ещё. Далее, даже самый быстрый компьютер без операционной системы и нужного программного обеспечения является всего лишь дорогим источником шума и обогрева окружающей среды. Свою Alpha-продукцию DEC позиционировала для Windows NT, Digital UNIX и OpenVMS, причём именно в таком порядке приоритетности. Оно бы и ничего, но... Windows NT — это операционная система, изначально ориентированная на пользователя, а не на программиста, так как не поставлялась с какими-либо средствами для разработки программного обеспечения, а поэтому сильно зависела от откомпилированного для неё добра, в первую очередь, коммерческого. Если смотреть фактам в лицо, то количество программ, доступных для Alpha, отличалось в разы от аналогичного показателя для i386. В некоторой мере положение смягчал FX!32, выпущенный в 1996 командой Антона Чернова (Anton Chernoff), отличный эмулятор и транслятор кода x86 в код Alpha. В среднем, от падения производительности на 40% по сравнению с изначально откомпилированным под Alpha исходным кодом он всё же избавить не мог. Далее, если рассматривать драйвера, то тут FX!32 вовсе ничем помочь не мог, поэтому дела обстояли ещё хуже — очень немногие производители сочли выпуск версий для Alpha целесообразным, поэтому приходилось рассчитывать, в основном, на милость Microsoft и DEC. В конце концов, Windows NT (как 3.51, так и 4.0) была 32-битной ОС, a поэтому была не в состоянии полностью раскрыть потенциал 64-битной архитектуры Alpha. Тем не менее, все эти оказии не мешали DEC продвигать свои Alpha-системы под рекламным лозунгом "Рождены для работы с Windows NT" ("Born to run Windows NT"). В общем, такая ОС не должна была позиционироваться как основная для архитектуры Alpha, хотя собственно факт её существования был большим плюсом на рынке рабочих станций. OpenVMS для Alpha произошла от 32-битной VAX/VMS ОС, разрабатываемой с 1976 для машин DEC VAX. В 1990 программисты DEC начали работу над проектом по портированию VAX/VMS 5.4-2 на Alpha, и эта задача была завершена к ноябрю 1992 с выпуском OpenVMS AXP 1.0, за которой в июне 1993 последовала OpenVMS VAX 6.0. Имела место небольшая путаница с номерацией, так как следующий выпуск OpenVMS в апреле-мае 1994 был 6.1 как для VMS, так и для Alpha. Следующий концептуальный выпуск — 7.0 — состоялся в декабре 1995. Среди многочисленных усовершенствований наконец-то появилась возможность использовать 64-битное виртуальное адресное пространство на Alpha. Compaq начала портировать OpenVMS с Alpha на Itanium в 2001, а основной объём работ был завершён к выпуску 8.0 в июне 2003. Первым унифицированным выпуском OpenVMS для архитектур Alpha и Itanium был 8.2 (февраль 2005). Compaq заявила об окончании активной поддержки VAX в августе 2000, поэтому разработка OpenVMS для VAX не продвинулась далее выпуска 7.3, хотя обычная поддержка всё ещё доступна от Hewlett-Packard по состоянию на 2011. OpenVMS 8.4 для Alpha и Itanium (дата выпуска: июнь 2010) является текущей версией, которая разрабатывается, продвигается и поддерживается Hewlett-Packard. Digital UNIX имеет иные корни. Первые UNIX рабочие станции от DEC работали под управлением Ultrix, собственной ОС, произошедшей от 4.2BSD с некоторыми функциями AT&T System V. Она была изначально выпущена в июне 1984 для архитектур VAX и PDP-11, но позже была портирована на MIPS (1988) и стала основной ОС для первых RISC рабочих станций компании: DECstation 2100, DECstation 3100 и DECstation 5000. Они выпускались до 1994, когда были окончательно вытеснены рабочими станциями на основе архитектуры Alpha. Часть кода Ultrix была собственностью AT&T, поэтому DEC была ограничена условиями соответствующего лицензионного соглашения. Это были времена судебных баталий в мире UNIX, поэтому DEC вместе с IBM, Hewlett-Packard и другими ведущими корпорациями в 1988 основала Open Software Foundation (OSF) для противодействия AT&T и Sun Microsystems. Эта организация выпустила UNIX-подобную ОС под названием OSF/1 в декабре 1991, которая была лишена какого-либо кода AT&T. DEC предлагала эту ОС почти для полного ряда рабочих станций и серверов Alpha под названием OSF/1 AXP. Стоит отметить, что некоторые модели всё же позиционировались только с Windows NT, так как их прошивки не позволяли запускать OpenVMS или какую-либо другую производную UNIX. OSF прекратила разработку этой ОС в 1994, поэтому DEC её продолжила самостоятельно и переименовала ОС в Digital UNIX с версией 3.2 в 1995. Название ОС подверглось изменению ещё раз благодаря Compaq, которая предпочла иметь Tru64 UNIX начиная с версии 4.0E (апрель 1999). Текущая версия 5.1B-6 (дата выпуска: октябрь 2010) разрабатывается, продвигается и поддерживается Hewlett-Packard. Итак, что же в итоге? OpenVMS и Digital UNIX — это надёжные и масштабируемые коммерческие ОС, которые так и не обрели действительно широкой популярности из-за высоких цен. В частности, одна 2-пользовательская лицензия на Digital UNIX 4.0 стоила 795 USD в 1996. Естественно, исходный код этих ОС был закрытым. Хотя с ними были связаны и другие сложности, такие как ещё более ограниченная поддержка аппаратной базы, чем у Windows NT, но получи хотя бы одна из этих ОС свободу вместе с теми отличными инструментами для разработки программного обеспечения от DEC, то это могло серьёзно укрепить рыночные позиции архитектуры Alpha. DEC никак не поддерживала бесплатные операционные системы с открытым кодом, хотя первая из них, NetBSD, была портирована на Alpha в 1995, а вслед за ней — Linux, OpenBSD и FreeBSD. Это было как-то странно, поскольку и по сей день эти ОС популярны в мире Alpha, а их потенциал был очевиден даже на то время, постоянно увеличиваясь. Кроме того, эти ОС обеспечивали не худшее быстродействие по сравнению с коммерческими Digital UNIX и OpenVMS, сопоставимую с Windows NT поддержку аппаратного обеспечения (намного лучшую сегодня), а также многие другие преимущества, которые можно ожидать от программного обеспечения с открытым кодом. FreeBSD прекратила поддержку архитектуры Alpha с выпуском 7.0 версии в феврале 2008. NetBSD, OpenBSD и Linux продолжают поддерживать эту архитектуру. Этот список больших ошибок DEC можно продолжить, но остальные не так важны или не относятся непосредственно к архитектуре Alpha. В любом случае, с точки зрения автора, DEC приложила множество усилий, чтобы заработать как можно больше денег при помощи архитектуры Alpha, но не приложила почти никаких усилий, чтобы помочь собственно архитектуре. Совет директоров, мотивированный многочисленными неудачами DEC в конце 1980-х и начале 1990-х, отстранил Ольсена в июле 1992 от руководства компанией и назначил на его место Роберта Палмера (Robert Palmer). В 1994 по его инициативе была проведена полная реорганизация бизнес-модели компании, которая из матричной (когда функционально разные отделы компании тесно взаимодействовали между собой при принятии решений) трансформировалась в традиционную вертикальную (когда полномочия и обязанности чётко определялись от самого верха компании и до самого её низа). Чистые убытки DEC за период с 1991 по 1994 составили свыше 4 млрд. USD, из них 2,16 млрд. только с июля 1993 по июль 1994, в основном, благодаря потраченным на реструктуризацию 1,2 млрд., которая предусматривала сокращение около 20 тыс. человек персонала. Таким образом, общее количество работающих на DEC было уменьшено до до 85 тыс. человек. Согласно программе Палмера, следовало избавиться от подразделений, не являющихся приоритетными для компании, и с этого момента началась глобальная распродажа. В июле 1994 за 348 млн. USD было продано Quantum подразделение по разработке и производству дисковых и ленточных накопителей (Storage Business Unit). Стоит отметить, что это подразделение не пользовалось благосклонностью руководства из-за провала на рынке первых жёстких дисков компании с тонкоплёночным (thin film) покрытием пластин (DEC RA90 и RA92 — 1.22GB/3600rpm и 1.51GB/3400rpm соответственно, DSA/SDI интерфейс). Они должны были выйти на рынок к концу 1988, но из-за недоработок при проектировке это произошло только летом 1990. В результате DEC утратила лидерство в бизнесе жёстких дисков, которое перешло к Imprimis, дочерней компании Control Data Corp. (CDC). Она анонсировала свой тонкоплёночный жёсткий диск Wren VII (1.05GB/3600rpm 5.25" full height, SCSI интерфейс) в ноябре 1988 и вывела его на рынок в следующем году как Seagate ST41200N/ST41200ND (Imprimis была продана Seagate в июне 1989 примерно за 450 млн. USD в деньгах и ценных бумагах). Следовательно, Seagate оказалась первой компании в отрасли, которая пересекла 1ГБ барьер для жёстких дисков, за ней последовала Maxtor, а DEC подсчитывала убытки. Что касается Quantum, то у неё был довольно успешный бизнес жёстких дисков в то время, но её продукты никогда не попадали в сегмент high end, хотя были очень популярны среди низкобюджетных покупателей (модельный ряд жёстких дисков Quantum Bigfoot, который производился с 1996 в в 5.25" конструктиве и с 3600rpm скоростью вращения, был тому отличным примером). Quantum хотела расширить свой бизнес на прибыльный рынок SCSI, а у DEC было в этом немало опыта. Продукты DEC из семейства StorageWorks основывались на SCSI жёстких дисках RZ серий. Некоторые из них заказывались у Micropolis, Conner, Quantum и других, но некоторые DEC производила сама благодаря команде разработчиков в Шрусбери (Массачусеттс, США). Там же c 1984 проектировались и производились успешные стримеры семейства DLT (digital linear tape drives), которые были ещё одной целью для Quantum. Если не вдаваться в подробности, то благодаря бывшим технологиям и персоналу DEC у Quantum получилось выпустить на рынок семейство Atlas жёстких дисков с интерфейсом SCSI и 7200rpm, которое было позже расширено 10K и 15K rpm моделями. Это семейство продолжало расширяться после 50%/50% слияния бизнеса жёстких дисков Quantum со всей компанией Maxtor в октябре 2000, но было свёрнуто вскоре после 16%/84% поглощения Maxtor лидером отрасли Seagate в декабре 2005, поскольку у последней имелось собственное семейство высокоскоростных SCSI дисков, Cheetah. В августе 1994 было продано Oracle подразделение баз данных (Database Software Unit) за 108 млн. USD в деньгах. Сделка включала продажу DEC Rdb реляционной системы управления базами данных (relational data base management system, RDBMS), а также программного обеспечения CDD/Repository и DBA WorkCenter. В то же время программное обеспечение с функциями управления базами данных DEC RMS (Record Management Services) было исключено из сделки, так как оно являлось неотъемлемым интегрированным компонентом OpenVMS. DEC поддерживала Rdb 6.0 на OSF/1 AXP, OpenVMS (VAX и Alpha), Windows NT (i386 и Alpha). С выпуском Rdb 7.0, Oracle прекратила поддержку Rdb на всех ОС, кроме OpenVMS, и позже вытеснила версию для VAX версией для Itanium. В 1992 DEC вступила в альянс с Olivetti, итальянским компьютерным вендором, с целью взаимного продвижения продуктов. DEC также приобрела 7,8% долю в Olivetti за 287 mln. USD. 24 августа 1994 DEC продала эти акции за 150 mln. USD, то есть, почти за половину цены, уплаченной 2 года назад. Явно не лучшее капиталовложение. Тем не менее, обе компании продолжали сотрудничество вплоть до 1997, когда Olivetti закрыла свой компьютерный бизнес. В ноябре 1997 была подписана сделка о продаже подразделения сетевых решений (Network Product Business Unit) Cabletron примерно за 430 млн. USD в деньгах, ценных бумагах и товарном кредите. Впридачу к материальным активам, Cabletron получила около 250 патентов в сетевой сфере и 900 новых работников, не включая тех 200, которым повезло сохранить свои должности в DEC. Размер этого самого товарного кредита не разглашался, поэтому было проблематично определить реальную цену продажи подразделения. Кстати, в следующем месяце Cabletron уволила около 600 человек собственного персонала и закрыл 2 фабрики, а также потеряла примерно половину рыночной капитализации в течение только одного месяца с момента подписания сделки с DEC. Фактически, Cabletron не была заинтересована ни в приобретаемых сетевых продуктах, ни технологиях, ни даже персонале. Ей была нужна инфраструктура для продаж сетевого оборудования. Однако же, не сложилось. Компанию постигали неудачи одна за другой на протяжении следующих лет. В конце концов остатки бывшего сетевого подразделения DEC вместе со 130 работниками были проданы Gores Technology Group в мае 2000. Kонец DEC был довольно громким. В мае 1997 она подала в суд на Intel, обвиняя последнюю в нарушении 10 своих патентов на архитектуру Alpha при проектировании процессоров Pentium, Pentium Pro и Pentium II. В сентябре 1997 Intel ответила встречным иском, обвиняя DEC в нарушении 14 патентов при разработке процессоров Alpha. В конце концов, 27 октября 1997 был подписан мир и обе компании отозвали свои претензии. DEC предоставила Intel производственные права на весь спектр своей продукции, кроме разработок в области архитектуры Alpha, и согласилась поддерживать будущую архитектуру IA-64. Взамен Intel выкупила у неё за 625 млн. USD фабрику в Хадсоне вместе с проектными центрами в Иерусалиме (Израиль) и Остине (Техас, США), а также обязалась в будущем производить для DEC процессоры Alpha. Кроме того, был подписан договор о взаимном кросс-лицензировании патентов сроком на 10 лет. Сделка была завершена 18 мая 1998, когда Compaq уже была в процессе интеграции в свои структуры основных подразделений DEC, в которых было занято 38 тыс. сотрудников. Значительная часть их всё же была сокращена в самом ближайшем будущем. Между прочим, у самой Compaq до поглощения числилось 32 тыс. работников. | |
| |
17.11.2015 - 22:09 |
HugoBo-SS
тут-та-ту
[SoftoRooMTeaM]
Группа: Модераторы Сообщений: 10.906 Регистрация: 3.04.2008 Из: Russia SPb Пользователь №: 827.869
Респектов: 4350
| Alpha: история в фактах и комментариях 2
Стоит упомянуть, что незадолго до конца DEC, а также вскоре после этого, многие ведущие инженеры, которым DEC была обязана своим былым могуществом, ушли к другим работодателям. Деррик Мейер (Derrick Meyer) и Джеймс Келлер (James Keller) отправились в AMD создавать K7 и К8 соответственно. Дэниел Лейбхольц (Daniel Leibholz) был принят на работу в Sun для разработки UltraSPARC V. Также уволился Ричард Сайтс, один из ведущих разработчиков архитектуры Alpha на протяжении всего времени её существования. В этом плане Intel повезло ещё меньше, так как доставшаяся ей от DEC вместе с фабрикой и проектными центрами архитектура StrongARM осталась почти без разработчиков, так как никто из ведущих инженеров, проектировавших StrongARM-110 (Дэниел Добберпуль, Ричард Витек, Грегори Хёппнер (Gregory Hoeppner) и Лайэм Мэдден (Liam Madden)), не пожелал перейти на работу в Чипзиллу. Более того, команда разработчиков следующего процессора архитектуры, работавшая под руководством Витека в Остине, уволилась в полном составе, так что Intel пришлось начинать разработку в буквальном смысле с ноля усилиями своих инженеров, до этого разрабатывавших i960. Alpha 21264 (EV6, EV67, EV68A, EV68C)
» Нажмите, для открытия спойлера | Press to open the spoiler « Хотя процессор 21264 (EV6) был разработан в DEC, а первая информация о нём была опубликована в октябре 1996 на Microprocessor Forum, окончательное воплощение в кремнии датируется февралём 1998, когда DEC уже была в процессе ликвидации. Собственно процессор представлял собой настолько существенный шаг вперед по сравнению с EV5, что его никак нельзя было считать эволюционным продолжением последнего. Одним из основных нововведений было внеочередное исполнение (out-of-order execution) инструкций, повлёкшее за собой фундаментальную реорганизацию ядра и снизившее зависимость основных фунциональных устройств от пропускной способности кэшей и оперативной памяти. EV6 мог переупорядочить на лету до 80 инструкций, что было значительно больше возможностей других конкурентных разработок. К слову, архитектура Intel P6 предусматривала внеочередную обработку до 40 [микрокоманд], HP PA-8x00 — до 56, MIPS R12000 — до 48, IBM POWER3 — до 32, PowerPC G4 — до 5, a Sun UltraSPARC II переупорядочивание команд не поддерживал. Внеочередное исполнение дополнялось техникой переименования регистров (register renaming), поэтому EV6 располагал 80 целочисленными и 72 вещественными регистрами, хотя количество архитектурных (логических) регистров осталось неизменным — 32 целочисленных и 32 вещественных. Количество целочисленных конвейеров было увеличено до 4, то есть в 2 раза по сравнению с EV5. Они были организованы в виде 2 блоков (clusters). Если точнее, каждый блок состоял из 2 конвейера и файла регистров на 80 записей. Оба файла регистров были идентичными (синхронизирванными). Однако, конвейеры были функционально разными: 2-й конвейер 1-го блока мог выполнять команды сдвига (1 такт на обработку) и умножения (7 тактов на обработку), а 2-й конвейер 2-го блока — команды сдвига (1 такт) и MVI (3 такта). 1-й конвейер каждого блока выполнял помогал A-box, производя расчёт виртуальных адресов для операций загрузки/сохранения. Кроме этого, все 4 конвейера поддерживали выполнение основных арифметических и логических операций (1 такт). Собственно A-box работал с I-TLB и D-TLB (каждый на 128 записей), очередями загрузки и сохранения (каждая по 32 команды), а также 8 64-байтными буферами (miss address file) для операций с B-cache и оперативной памятью. Вещественные конвейеры также были функционально неоднородны: 1-й поддерживал операции сложения (4 такта), деления (12 тактов для операндов одинарной точности и 15 тактов для двойной) и вычисления квадратного корня (15 и 30 тактов), а 2-й — только умножения (4 такта). I-box, как и прежде в EV5, мог декодировать до 4 команд за такт и направлять их в 2 очереди: на целочисленные конвейеры (E-queue, 20 команд) и на вещественные конвейеры (F-queue, 15 команд). Структура C-box подверглась значительным изменениям, да и работать ему теперь предстояло только с 2 уровнями кэш-памяти. Интегрированная L1 кэш-память состояла из 64Кб I-cache и 64Кб D-cache, оба с 2-канальной ассоциативностью и 64-байтными строками. D-cache, как и B-cache, работали в режиме обратной записи, а без S-cache пришлось обойтись. Всё же B-cache был включающим по отношению к D-cache. Из-за большого размера D-cache задержки чтения/записи возросли с 2 тактов до 3 (в/из целочисленного регистра) и 4 тактов (в/из вещественного регистра). D-cache так и остался двухпортовым, но, в отличие от EV5, он уже не состоял из 2 идентичных частей, синхронизированных по записи, а просто работал на удвоенной частоте ядра. Доступ к внешнему B-cache размером от 1Мб до 16Мб с прямым отображением и обратной записью осуществлялся через независимую 128-битную шину данных с 16-битным каналом для ECC, а также при помощи 20-битной однонаправленной шины адреса. B-cache набирался на микросхемах LW SSRAM (late-write, с отложенной записью), а позднее и DDR SSRAM (double data rate, с удвоенной скоростью передачи данных). Частота B-cache программировалась в диапазоне от 2/3 до 1/8 частоты ядра EV6, и, в отличие от предыдущих поколений процессоров Alpha, собственно B-cache не был опциональным. Системная шина данных была только 64-битной с дополнительным 8-битным каналом для ECC, но была в состоянии передавать информацию на обоих краях тактового сигнала, то есть использовала принцип DDR. Системная шина адреса была 44-битной, физически представленной в виде двух 15-битных однонаправленных каналов, а системная шина управления — 15-битной. Был изменён базовый принцип работы системной шины, которая из разделяемой преобразовалась в выделенную, то есть каждый процессор располагал собственным путём к системной логике. Блок предсказания ветвлений был полностью переработан. Oн был спроектирован по 2-уровневой схеме: с локальной историей переходов (local history table, 1024 записи с 10-битными счётчиками) и локальным предсказателем (local predictor, 1024 записи по 3 бита), а также с глобальным предсказателем (global predictor, 4096 записей по 3 бита) и 12-битным "путём истории" (history path). Оба алгоритма работали независимо, и если локальный отслеживал каждый отдельный условный переход, то глобальный — последовательности переходов. Общий предсказатель ветвлений анализировал результаты обоих алгоритмов и делал выводы в виде отдельной таблицы выборочного предсказателя (choice predictor, 4096 записей по 2 бита), на основе которой выводились предпочтения при расхождении локальных и глобальных прогнозов. Такой кооперативный метод позволял добиться лучших результатов, чем применение любого из алгоритмов в отдельности. Инженеры, разрабатывавшие EV6, учитывая большое количество функциональных устройств и прочие сложности, полностью переработали схему расположения генераторов тактовой частоты. Более равномерное распространение тактового сигнала позволило ядру работать на частотах, равных частотам куда более простого ядра EV56, при использовании почти того же техпроцесса. В целом, потребляемая частотными генераторами мощность составляла для EV6 около 32% от общего потребления ядра. Для сравнения, у EV56 этот показатель составлял около 25%, у EV5 — около 37%, а у EV4 — около 40%. EV6 производился по тому же техпроцессу, что и EV56, но с дополнительными 2 слоями металлизации. Состоял из 15,2 млн. транзисторов (из них около 9 млн. на I-cache, D-cache и предсказатели переходов), располагал площадью ядра в 314мм² и был рассчитан на рабочее напряжение от 2,1В до 2,3В. Тактовые частоты EV6 составляли от 466МГц до 600МГц (TDP прибл. от 80Вт до 110Вт). Форм-фактор: PGA-587 (Pin Grid Array). В конце 1999 на рынок вышел 21264А (EV67), выполненный по 0,25µ CMOS техпроцессу от Samsung, обладавший площадью ядра в 210мм² и требовавший пониженное рабочее напряжение в 2,0В. По сравнению с EV6 никаких значительных архитектурных отличий не наблюдалось. Тактовые частоты 21264A (EV67) составляли от 600МГц до 833МГц (TDP прибл. от 70Вт до 100Вт), что позволило архитектуре Alpha вернуть лидерство на целочисленных операциях, незадолго до этого утраченное в пользу Intel Pentium III (Coppermine) и AMD Athlon (K7). В начале 2000 появились первые образцы процессоров 21264B (EV68C), на этот раз от IBM, выполненные сорласно норм 0,18µ CMOS техпроцесса с использованием медных проводников. Несмотря на прежнее отсутствие архитектурных изменений, многообещающая технология позволила поднять тактовые частоты вплоть до 1250МГц. В 2001 Samsung смог наладить производство 21264B (EV68А) согласно норм своего 0,18µ CMOS техпроцесса, но с алюминиевыми проводниками. По сравнению с EV67, площадь ядра была сокращена более чем на треть (до 125мм²), также было уменьшено напряжение питания (до 1,7В). Тактовые частоты 21264B (EV68A) находились в диапазоне от 750МГц до 940МГц (TDP прибл. от 60Вт до 75Вт). А ведь ещё в сентябре 1998 было анонсировано, что EV68 от Samsung будет использовать прогрессивный 0,18µ FD-SOI (Fully Depleted Silicon-On-Insulator) техпроцесс с медными проводниками, который позволил бы EV68 достичь 1,5ГГц и даже более. Увы, этого не произошло. В разных источниках проскакивали упоминания о 21264C и 21264D под кодовыми именами EV68CB и EV68DC соответственно, выпускавшимися IBM согласно норм того же техпроцесса и с теми же частотными характеристиками, что и EV68C, поэтому их можно расматривать как частные варианты последнего. Единственным существенным отличием было использование нового форм-фактора, безногого LGA-675 (Land Grid Array) вместо PGA-587. Скорее всего, эти процессоры устанавливались только в сервера Compaq. Кроме BWX и MVI, унаследованных от процессоров предыдущего поколения архитектуры Alpha, в EV6 был добавлена поддержка нового набора из 9 команд под названием FIX или FX (Floating-point eXtension), нацеленного на вычисление квадратного корня (SQRTF, SQRTG, SQRTS, SQRTT), перемещение данных из целочисленных в вещественные регистры (ITOFF, ITOFS, ITOFT) и из вещественных в целочисленные (FTOIS, FTOIT). Ещё один набор из 3 команд под названием CIX или CX появился в EV67 для облегчения подсчёта бит (CTLZ, CTTZ, CTPOP). Наконец, EV6 и его производные поддерживали две команды предвыборки (ECB, WH64) в дополнение к FETCH и FETCH_M, которые существовали с момента появления архитектуры. Для процессоров серии 21264 было изначально спроектировано 2 набора системной логики: DEC Tsunami (21272; он же Typhoon) и AMD Irongate (AMD-751), хотя их могло бы быть значительно больше, поскольку и 21264, и Athlon использовали почти одинаковую системную шину, которая была лицензирована AMD ещё у DEC. DEC Tsunami был набором системной логики повышенной масштабируемости. На его основе проектировали как 1-процессорные, так 2-процессорные и 4-процессорные системы с разрядностью шины памяти от 128 до 512 бит (83МГц SDRAM ECC registered), поддержкой как одной, так и двух шин PCI (33МГц 64-бит). Такой гибкости удалось достичь благодаря разделению системной логики на отдельные компоненты: контроллеры системной шины (C-chips, по одному на каждый процессор), контроллеры шины памяти (D-chips, по одному на каждые 64 бита ширины шины) и контроллеры шины PCI (P-chips, по одному на каждую требуемую шину). Поэтому не было ничего удивительного в том, что в некоторых системах (например, AlphaPC 264DP) набор системной логики состоял из 12 микросхем. Хотя AMD Irongate (AMD-751) разрабатывался изначально как северный мост для материнских плат, предназначенных для процессоров AMD Athlon, дополненный южным мостом AMD Viper (AMD-756) или совместимым, его также использовали в некоторых материнских платах архитектуры Alpha (точнее, в UP1000 и UP1100). Так как он был одночиповым решением, то стоил намного дешевле DEC Tsunami и отличался существенно более низким энергопотреблением. Однако, его возможности не соответствовали потенциалу 21264 из-за отсутствия поддержки многопроцессорности и слишком узкой шины данных оперативной памяти (64-бит, до 768Мб SDRAM ECC unbuffered в 3 DIMM с 2 RAS строками каждый). Тем не менее, Irongate был первым набором системной логики для Alpha с поддержкой шины AGP. В 2001 Samsung представил однопроцессорную материнскую плату UP1500, в основе которой лежал северный мост AMD Irongate-2 (AMD-761). Эта материнская плата обладала более высокой производительностью, чем UP1000 или UP1100, благодаря поддержке более быстрой оперативной памяти: до 4Гб DDR SDRAM ECC registered на частоте в 133МГц (4 модуля с 2 RAS строками каждый) либо до 2Гб DDR SDRAM ECC unbuffered на той же частоте (2 модуля с 2 RAS строками каждый). Однако, шина данных оперативной памяти осталась столь же узкой. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Эпоха Compaq
» Нажмите, для открытия спойлера | Press to open the spoiler « Судя по всему, Compaq приобрела остатки DEC из-за значительных сборочных мощностей, широкой сети дистрибьюции (в 98 странах) и кросс-лицензионного соглашения с Intel (позволяющего, например, выпускать 8-процессорные сервера Profusion). Как показало дальнейшее развитие событий, подразделение по развитию архитектуры Alpha пришлось явно не к месту: Compaq издавна собирала обычные и переносные компьютеры, рабочие станции и сервера на основе процессоров Intel, а также проявляла определённый интерес к процессорам AMD. Поэтому в июне 1998 Compaq с Samsung заключили альянс по развитию архитектуры Alpha. Как известно, в феврале 1998 между DEC и Samsung было подписано соглашение, которое предоставляло последней доступ ко всем патентам DEC по архитектуре Alpha, давало разрешение на выпуск уже существующих процессоров Alpha и даже на проектировку и выпуск их производных. Совместно была учреждена дочерняя компания, API (Alpha Processor Inc.), которая должна была заниматься маркетинговыми вопросами архитектуры. По-видимому, кто-то сделал нужные выводы из истории DEC. Летом 1998 системы на базе EV6 вступили в стадию массового производства, уверенно выигрывая по соотношению цена/производительность у имеющихся конкурентных продуктов. Серьёзные проблемы с выпуском будущего Itanium от Intel давали основание утверждать, что такое положение дел сохранится и в ближайшем будущем. Кроме Samsung, EV6 былa вынужденa производить сама Intel на своей Fab-6 в Хадсоне, так как это было одним из условий последнего договора с покойной DEC. Год 1999 оказался неудачным для Compaq, в связи с падением объёмов продаж на рынке персональных компьютеров. Основной причиной называли недооценку возможностей, предоставляемых Интернетом для продаж компьютерной техники и которыми активно воспользовалась Dell, перестроившая таким образом свою бизнес-модель, предлагая технику по самым низким ценам среди крупнейших производителей. После финансовой катастрофы в 1-м квартале 1999 ушёл в отставку главный исполнительный менеджер Compaq, Экхард Пфайфер (Eckhard Pfeiffer). В целях экономии, Compaq начала сворачивать деятельность в некоторых отраслях, что отразилось и на Alpha-системах: в мае 1999 было объявлено о закрытии сборочного цеха AlphaServer'ов в Сэлеме (Нью-Хэмпшир, США). 23 августа 1999 произошло таки знаменательное событие: Compaq отказалась от дальнейшего участия в разработке Windows NT и прекратила поставлять эту ОС со своими Alpha-системами, а также уволила почти всех сотрудников (примерно 120 программистов) из бывшей Западной исследовательской лаборатории DEC (DECwest), работавших над этим проектом. Согласно статистике Compaq, среди всех предустановленных ОС на Alpha-системах Tru64 UNIX имела долю в 65%, OpenVMS — в 35%, a на Windows NT приходилось около 5%, поэтому дальнейшие работы над этой ОС не окупали себя. Неделю спустя Microsoft заявила, что отменяет разработку Windows 2000 для Alpha, хотя RC1 (Release Candidate 1) уже был готов к тому моменту. Учитывая, что ещё в 1997 Microsoft вместе с Motorola и SGI свернула поддержку архитектур PowerPC и MIPS соответственно, будущее "универсальной ОС" оказалось привязанным к одной-единственной архитектуре. Естественно, если не считать IA-64, которая вскоре провалилась на рынке рабочих станций, а на рынок обычных и переносных компьютеров так и не вышла. Чтобы обеспечить лидерство архитектуры Alpha в обозримом будущем, в декабре 1999 Compaq и Samsung подписали меморандум, согласно которому обе компании обязались инвестировать 500 млн. USD в её развитие. Samsung должна была вложить 200 млн. USD в развитие и отладку новых техпроцессов, а Compaq решилась потратить 300 млн. USD на проектирование новых серверных решений и на дальнейшее развитие Tru64 UNIX. Кроме того, в том же месяце Compaq и IBM заключили соглашение, согласно которому последняя обязалась производить процессоры Alpha с использованием своей CMOS технологии на медных проводниках как только та будет отлажена. Тем не менее, Samsung всё же должна была остаться основным поставщиком процессоров Alpha. Если подвести итоги года для Compaq, то они довольно неплохо были проиллюстрированы курсом её акций: с 51 USD за шт. в феврале и до 28 USD за шт. в декабре. Правда, многие аналитики утверждали, что могло быть и хуже. Y2K прошёл для Compaq без потрясений. Samsung так и не успела наладить свой 0,18µ техпроцесс, в отличие от IBM, которая начала ограниченные поставки EV68C для Compaq, а рынок был вынужден довольствоваться относительно медленными 21264A (EV67). Разработка 21364 (ЕV7, также известного как Marvel) затянулась, хотя в анонсах уже значился 21464 (EV8, также известный как Araña). Крах dot-com'ов отразился и на курсе акций Compaq, упавшем к концу года до 15 USD за шт., то есть на 44% по сравнению с началом года. Как ни странно, этот показатель можно считать хорошим, поскольку другие компании, более зависимые от электронной коммерции, потеряли намного больше: Gateway — 75%, Apple — 71%, Dell — 65%. Собственно dot-com'ы стали либо банкротами, либо были недалеки от этого: Yahoo.com потеряла 95% своей рыночной стоимости, а Priceline.com — 97%. В начале 2001 Samsung смогла наладить выпуск своих EV68А, но удачный момент был уже упущен. Compaq планировала начать поставки систем с EV68C (AlphaServer'ов GS-класса), а также развернуть модернизацию имеющихся. EV7 был всё ещё где-то там, когда случилось то, чего мало кто ожидал: 25 июня 2001 (в "чёрный понедельник") Compaq объявила о постепенном переводе своих серверных решений с архитектуры Alpha на IA-64 к 2004. Фактически, это означало капитуляцию перед Intel и Hewlett-Packard. Работы над EV8 были отменены немедленно, хотя некоторые принципы его внутреннего устройства были опубликованы ещё на Microprocessor Forum в октябре 1999, а EV7 планировалось выпустить не ранее начала 2002, после чего Alpha Microprocessor Division подлежал расформированию, а основную часть его сотрудников должна была принять на работу Intel. Samsung и IBM вскоре прекратили производство процессоров Alpha. Далее события развивались ещё более интересно: 3 сентября 2001 Hewlett Packard заявила о своих намерениях приобрести Compaq, находящуюся в весьма сомнительном финансовом положении, так как в декабре того года курс её акций упал 10 USD за шт. Сделка была утверждена собраниями акционеров обеих компаний, а также правительствами США и Канады, и завершилась в мае 2002. 21 октября 2001 API, переименованная к тому времени в API NetWorks, передала все полномочия по обслуживанию проданного к тому времени аппаратного обеспечения Alpha компании Microway, крупнейшему [после Compaq] сборщику рабочих станций и серверов на основе архитектуры Alpha, старому партнёру DEC. Сама же API ушла с этого рынка, сконцентрировав внимание на сетевых технологиях, системах хранения данных и развитии шины HyperTransport. В заключение можно сказать, что хотя Compaq и избежала многих ошибок, сделанных в своё время DEC, она таки довела архитектуру до жалкого состояния. Производительные Alpha-системы на 21264A и 21264B так и не попали в ценовую категорию до 2 тыс. USD, а недорогой 21264PC так и не появился. Возможность массового выпуска недорогих материнских плат на основе AMD Irongate была проигнорирована, а стоимость DEC Tsunami, продаваемого Compaq по цене свыше 1000 USD за набор в оптовых партиях, не оставила Alpha-системам шанса на выход в средний ценовой диапазон. Другие производители наборов системной логики для AMD Athlon предпочли не адаптировать их для работы с 21264, хотя у VIA такое намерение изначально имелось. Северный мост Irongate-4 (AMD-762), появившийся почти полгода спустя Irongate-2 (AMD-761), то есть в декабре 2001 по сравнению с августом, так и не засветился в каком-либо дизайне материнских плат для Alpha. А ведь он мог работать в 2-процессорных конфигурациях и поддерживал тот же интерфейс к оперативной памяти, что и Irongate-2 (64-битный 133МГц DDR SDRAM), а посему системы на его основе и пары недорогих 21264B могли бы обладать отличными показателями соотношения цены и производительности. Однако, Compaq таки потеряла рынок рабочих станций для архитектуры Alpha. Фактически, она выпустила только две рабочие станции для этой архитектуры: XP900 (с 466МГц EV6 и 2Мб B-cache; кодовое имя Webbrick) и XP1000 (с 500МГц EV6 и 4Мб B-cache, позднее с 666МГц EV67; кодовое имя Monet). Обе основывались на DEC Tsunami, хотя и с относительно узким 128-битным каналом данных к оперативной памяти. Эти машины проиграли в конкурентной борьбе с рабочими станциями архитектуры x86, которые были менее производительны, но также и гораздо менее дороги. В конечном итоге, их неудача обернулась концом для Windows NT на Alpha: сервера от Compaq использовали, в основном, Tru64 UNIX или OpenVMS, а другие вендоры предпочитали Linux. Этот провал мог и должен быть засчитан целиком на счёт Compaq, так как DEC отчаянно боролась за рынок рабочих станций, где даже добилась определённых успехов. Например, если вспомнить о хорошо продаваемой DEC PWS (Personal WorkStation; кодовое имя Miata), в основе которой лежал DEC Pyxis и 21164A (EV56). Compaq же ничего не добилась, но умудрилась довольно быстро потерять всё. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Alpha 21364 (EV7, EV79, EV7z) и 21464 (EV8)
» Нажмите, для открытия спойлера | Press to open the spoiler « Первые новости об архитектуре процессора 21364 (EV7) прозвучали в октябре 1998 на Microprocessor Forum. Уже тогда стало известно, что процессор будет базироваться на ядре EV6, но с интегрированным контроллером Direct Rambus DRAM (предположительно, 4-канальным) и кэшем L2 (1,5Мб с обратной записью и 6-канальной ассоциативностью). Также было оглашено, что никаких изменений в ядре EV6 не планировалось, хотя возможна и другая причина: разрабатывать было уже некому, так как штат проектирующих процессорную логику инженеров Compaq был весьма небольшим. Ожидалось, что работы над EV7 будут закончены к 2000. После поглощения Compaq наследие в виде архитектуры Alpha было для Hewlett-Packard ненужным довеском, так как она развивала собственную архитектуру PA-RISC (Precision Architecture RISC) и состояла в альянсе с Intel по разработке её архитектуры IA-64 (позже переименованной в архитектуру Itanium). Поэтому интерес HP к архитектуре Alpha ограничился сбытом и поддержкой унаследованных от Compaq моделей серверов на основе EV6/EV67/EV68, а также запуском в производство EV7, окончательно представленного в январе 2002. Как и ожидалось, в основе EV7 лежало совершенно неизменённое ядро EV68 и несколько дополнительно интегрированных блоков: два контроллера оперативной памяти (два Z-box'а, для Direct Rambus DRAM PC800), многофункциональный маршрутизатор (R-box, для поддержки многопроцессорного режима и сетевых функций) и полноскоростная L2 кэш-память (S-cache, 1,75Мб с обратной записью и 7-канальной ассоциативностью). Разрядность шины данных к S-cache была 128-битной, а собственно кэш-память работала со значительными задержками (12 тактов при чтении). Оба Z-box'а и R-box работали на 2/3 частоты ядра. Скорость работы каналов оперативной памяти зависела от Z-box'ов и составляла 1/2 их частоты (соответственно, 1/3 частоты ядра), но с использованием принципа DDR. Каждый Z-box поддерживал 5 каналов памяти (4 основных и 1 вспомогательный) разрядностью по 18 бит каждый (16 бит для команд/данных/адресов, 2 бита для ECC). Вспомогательный канал был опцией и мог использоваться для организации отказоустойчивого массива в памяти (приблизительно, как RAID3). К примеру, при записи в память учетверенного слова (quad-word, 64 бита) оно разделялось на 4 слова, каждое из которых отправлялось по своему каналу, а по вспомогательному записывалась контрольная сумма. К тому же, каждый Z-box мог держать до 1024 страниц памяти открытыми. Суммарная теоретическая пропускная способность подсистемы оперативной памяти _одного_ EV7 при использовании DR DRAM PC800 на стандартной частоте составляла 12,8ГБ/с. Это было впечатляющей величиной по сравнению с 2,66ГБ/с, предоставляемых 256-битной 83МГц SDRAM, которой обычно обладали двухпроцессорные системы предыдущего поколения. Каждый EV7 в многопроцессорной системе располагал своей областью оперативной памяти, что подпадало под определение NUMA (Non-Uniform Memory Access). Традиционная модель называлась SMP (Symmetrical MultiProcessing), также известная как UMA (Uniform Memory Access), в которой все установленные процессоры имели доступ к единой (общей) области оперативной памяти. Каждый процессор (из максимум 128) в системе имел доступ к памяти как через свои контроллеры, так и через контроллеры других процессоров. Функцию связи между процессорами, как и между отдельно взятым процессором и локальной периферией, выполнял R-box. Он поддерживал 4 независимых канала с теоретической пропускной способностью в 6 Гб/с каждый (по одному на каждый подключенный соседний процессор), а также 1 дополнительный канал для скоростного ввода/вывода. Дополнительная микросхема под названием IO7 служила мостом между процессором и периферией. Она поддерживала до трёх шин PCI или PCI-X и одну шину AGP. В отдельно взятой системе могло быть столько микросхем IO7, сколько процессоров EV7. Процессоры 21364 могли поключаться друг к другу по произвольным алгоритмам, но на практике обычно использовались так называемые torus и shuffle, причём второй был потенциально эффективнее в некоторых случаях. Например, в 8-процессорной системе с алгоритмом подключения shuffle каждый процессор был непосредственно связан с 4 другими процессорами, а в случае с torus — только с 3. Нетрудно догадаться, что уже в 16-процессорной конфигурации этот аргумент отпадал. 21364 (EV7) производился по 7-слойному 0,18µ CMOS техпроцессу, состоял из 152 млн. транзисторов (из них 137 млн. было потрачено на I-cache, D-cache и S-cache) и, как следствие, занимал очень большую площадь кремниевой пластины — 397мм². Частота экспериментальных образцов составила 1250МГц (155Вт TDP), хотя в производимых HP системах использовались процессоры с более низкими частотами (1000МГц в AlphaServer DS25, ES47 и ES80, 1150MHz в AlphaServer GS1280 и SC1280). Фактически, EV7 был незначительной доработкой EV6 с целью улучшения масштабируемости и явно не инженерным чудом. Однако, потребовалось целых 4 года от начала работ до появления первых образцов, поэтому либо Compaq была плохим разработчиком, либо почти не беспокоилась о EV7. В декабре 2002 HP опубликовала пресс-релиз, в котором шла речь о появлении первых серверов на основе EV7 уже в январе 2003. Благодаря 0,13µ SOI техпроцессу, вскоре должен был выйти 21364A (EV79), на котором развитие архитектуры должно было прекратиться. В марте 2003 на ISSCC был представлен прототип EV79 с площадью ядра в 251мм², рассчитанный на напряжение питания в 1,2В и работавший с частотой в 1450МГц (100Вт TDP). Но уже в октябре 2003 появились первые новости о трудностях, связанных с производством EV79 на фабрике IBM, а ещё через полгода процессор был окончательно отменён. В августе 2004 было объявлено o выпуске последнего процессора архитектуры Alpha, 21364 (EV7z). Он производился по старому 0,18µ техпроцессу, поэтому максимальная тактовая частота смогла достичь лишь 1300МГц. Не исключено, что EV7z представляли собой просто отобранные экземпляры EV7 с хорошим частотным потенциалом. 21364 (EV7z), как и 21364 (EV7) ранее, был предназначен для установки исключительно в продукцию Hewlett-Packard. Также было заявлено, что сервера и рабочие станции архитектуры Alpha будут предлагаться до 2006, аэ поддерживаться до 2011 года, но не более. Отменённый 21464 (EV8) должен был быть наследником EV7, по сравнению с которым количество основных исполнительных устройств планировалось удвоить до 8 целочисленных и 4 вещественных конвейеров), а также увеличить до 3Мб размер S-cache. Была заявлена поддержка новой технологии, SMT (Simultaneous MultiThreading), позволяющей одновременное выполнение (concurrent execution) до 4 программных потоков внутри одного физического ядра. Предположительно, эта технология была несколько родственной HyperThreading от Intel. Ядро должно было состоять из 250 млн. транзисторов и обладать площадью в 420мм² при условии использования 0,13µ SOI техпроцесса. Tактовая частота прототипов EV8 должна была достичь 1,8ГГц при напряжении питания ядра в 1,1В (150Вт TDP). »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Эпилог
На момент написания статьи (апрель 2005) Alpha-системы всё ещё продавались, в основном через Hewlett-Packard и Microway. Последняя даже предлагала относительно недорогие рабочие станции с 21164А и AlphaPC 164LX под Linux (за 2000 USD в стандартной комплектации). Большое количество списанных, но все ещё работоспособных рабочих станций и серверов, а также комплектующих к ним, было доступно через разного рода онлайновые барахолки типа eBay. Большинство этих систем изначально прeдназначалось для работы с Windows NT, и на некоторые из них не получится установить ни Digital UNIX, ни OpenVMS. Фактически, если некоторая машина не поддерживает SRM консоль, то на ней не будут работать NetBSD / OpenBSD / FreeBSD, хотя имеется способ установки и запуска Linux из-под ARC / AlphaBIOS. Если у вас имеется намерение приобрести Alpha-систему, хорошо выясните этот вопрос перед покупкой, чтоб не иметь впоследствии лишних проблем. Согласно статистике, к июню 2001 только DEC и Compaq продали около 800 тыс. рабочих станций и серверов архитектуры Alpha. Точное количество систем, собранных и проданных другими компаниями, неизвестно, но эта цифра определённо превышает 500 тыс. Многие утверждают, что архитектура Alpha умерла своей смертью. Надеюсь, после прочтения этой статьи у вас не останется сомнений, что её похоронили, причём заживо. Потому что так было выгодно. Как и ожидалось, в октябре 2006 продукция архитектуры Alpha была убрана из прайс-листов Hewlett-Packard. История знает немало случаев, когда товар с худшими характеристиками вытеснял сопоставимый товар с лучшими техническими показателями. Возможно, первый товар стоил существенно дешевле второго. Также возможно, что второй товар продвигался на рынке существенно пассивнее первого. Или лицензионные отчисления были несопоставимы. Всё возможно. Не исключено, что маркетологи некоторых товаров, осознавая их ущербность, продвигают их на рынке наиболее агрессивно, понимая, что иначе их очередная зарплата может оказаться последней. Источник: alasir_com ИМХО Последний абзац бы вынес в эпиграф | |
| |
3.12.2015 - 18:06 |
HugoBo-SS
тут-та-ту
[SoftoRooMTeaM]
Группа: Модераторы Сообщений: 10.906 Регистрация: 3.04.2008 Из: Russia SPb Пользователь №: 827.869
Респектов: 4350
| 22 года эволюции суперкомпьютеров
Июнь 1993 года: CM-5/1024» Нажмите, для открытия спойлера | Press to open the spoiler « Впервые список 500 лучших суперкомпьютеров был опубликован в июне 1993 года. На тот момент самым мощным компьютером в мире был СМ-5, расположенный в Лос-Аламосской национальной лаборатории в Калифорнийском университете. Он находился в ведении Министерства энергетики США и был изготовлен компанией Thinking Machine. CM-5/1024 состоял из 1024 процессоров SuperSPARC, работающих на тактовой частоте 32 МГц. Теоретическая вычислительная мощность системы составляла 131 гигафлопс, но в бенчмарке LINPACK, который использовался для получения результатов для рейтинга TOP500, фактическая производительность (59,7 гигафлопс) оказалась менее половины заявленной. По образу СМ5 был создан "мозг" комнаты управления в фильме "Парк Юрского периода" (пять черных башен с красными огнями), снятого Стивеном Спилбергом в 1993 году. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 1994 года: XP/S 140 Paragon» Нажмите, для открытия спойлера | Press to open the spoiler « В июне 1994 года СМ-5 уступил место Intel XP/S 140 Paragon. Этот суперкомпьютер был приобретен для Сандийских национальных лабораторий в Нью-Мексико. Он включал 3680 процессоров Intel i860 XP - это был один из немногих чипов с набором инструкций RISC, изготовленный Intel. Для своего времени i860 был инновационным процессором. Он имел 32-битный вычислительный модуль и 64-битный модуль для выполнения операций с плавающей запятой (FPU). Каждый процессор имел доступ к 32 32-битным регистрам, которые также могли использоваться в качестве 16 64-битных регистров или 128 8-битных регистров. Набор инструкций, исполняемый FPU, также включал инструкции типа SIMD, которые заложили основу для будущего набора команд MMX, используемого в линейке процессоров Intel Pentium. Каждый процессора i860 XP работал на тактовой частоте 40-50 МГц и обеспечивал 0,05 гигафлопс вычислительной мощности. Теоретическая мощность компьютера XP/S 140 составляла 184 гигафлопс, но практическая (в тесте Linpack) была чуть меньше - 143,4 гигафлопс. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Ноябрь 1994 года: Япония одерживает победу. Numerical Wind Tunnel» Нажмите, для открытия спойлера | Press to open the spoiler « В ноябре 1994 года Япония обогнала США в рейтинге TOP500 с суперкомпьютером Numerical Wind Tunnel ("Цифровая аэродинамическая труба"), который компания Fujitsu изготовила для Национальной аэрокосмической лаборатории Японии. В отличие от предыдущих самых мощных суперкомпьютеров в этой системе использовались всего 140 векторных, а не скалярных процессоров. Эти процессоры состояли из 121 отдельного ядра, собранных в матрицу 11 х 11, где каждый чип имел выделенную функцию. Каждый процессор содержал по четыре независимых канала и мог выполнять две инструкции умножения-сложения за тактовой цикл. Сам "процессор" потреблял 3000 Вт и требовал водяного охлаждения. Эти процессоры работали при частоте 105 МГц и особенно хорошо подходили для имитации потока жидкости. Каждый процессор в теории обеспечивал 1,7 гигафлопс вычислительной мощности. Совокупная теоретическая вычислительная мощность составляла более 238 гигафлопс, и это был первый компьютер, преодолевший барьер в 200 гигафлопс, хотя его показатели в Linpack были немного ниже - сначала 124 гигафлопс, потом 170 гигафлопс и, наконец, 192 гигафлопс. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 1996 года: Hitachi обгоняет Fujitsu.SR2201/1024» Нажмите, для открытия спойлера | Press to open the spoiler « В следующем году Япония усилила свои позиции в TOP500, представив SR2201/1024. Этот суперкомпьютер был создан компанией Hitachi для Токийского университета. Новая машина обошла компьютер Numerical Wind Tunnel от Fujitsu, и Япония в итоге заняла два первых места на TOP500, опустив США на третье место. В отличие от суперкомпьютера Numerical Wind Tunnel эта система вернулась к скалярным процессорам и использовала чипы HARP-1E, основанные на архитектуре PA-RISC 1.1. В общей сложности в SR2201/1024 было установлено 1024 процессора с тактовой частотой 150 МГц, Каждый CPU обладал теоретической вычислительной мощностью 300 MFlops, а совокупная теоретическая вычислительная мощность SR2201/1024 достигала 300 гигафлопс. HARP-1E также представил механизм псевдо векторной обработки (Pseudo Vector Processing) для предварительной загрузки данных непосредственно в регистр процессора, минуя кэш. Благодаря этой функции компьютер SR2201/1024 мог похвастаться исключительной для своего времени производительностью. В тесте Linpack SR2201/1024 достиг 232,4 гигафлопс, то есть 72% от теоретической мощности. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 1997 года: пройден порог 1 терафлопс. Accelerated Strategic Computing Initiative (ASCI) Red» Нажмите, для открытия спойлера | Press to open the spoiler « Чтобы вернуть себе технологическое лидерство США запустили в 1992 году инициативу Accelerated Strategic Computing Initiative (ASCI). Первым успешным проектом этой программы была разработка ASCI Red - суперкомпьютера, построенного Intel для Сандийских лабораторий, в которых также находился компьютер Intel XP/S 140. ASCI Red впечатлил весь мир, поскольку первым в истории пересек барьер в один терафлопс. 7264 процессоров Pentium Pro, работающих на частоте 200 МГц, имели теоретическое значение вычислительной мощности в 1,453 терафлопса и в Linpack показывали результат в 1,068 терафлопс. ASCI Red был одним из первых суперкомпьютеров, в котором использовались компоненты массового производства. Благодаря своей модульной и масштабируемой архитектуре суперкомпьютер ASCI Red продержался в списке TOP500 восемь лет. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 1998 года: ASCI Red 1.1» Нажмите, для открытия спойлера | Press to open the spoiler « В июне 1998 года ASCI Red получил дополнительные 1888 процессоров Pentium Pro. Хотя в 1997 году он был первым в списке TOP500, тогда он был сформирован только на 75 процентов. В завершенном виде ASCI Red 1.1 в совокупности имел 9152 процессоров Pentium Pro с тактовой частотой 200 МГц и обладал теоретической вычислительной мощностью 1830 гигафлопс. В Linpack ему удалось достичь показателя в 1338 гигафлопс. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 1999 года: ASCI Red 2.0» Нажмите, для открытия спойлера | Press to open the spoiler « В 1999 году Intel обновила суперкомпьютер ASCI Red, заменив старые процессоры Pentium Pro на новые Pentium II OverDrive с интерфейсом Socket 8. В дополнение к обновленной архитектуре и более высокой тактовой частоте (333 МГц у Pentium II Overdrive против 200 МГц у Pentium Pro) Intel увеличила число процессоров с 9152 до 9472 штук. Эти усовершенствования умножили теоретическую вычислительную мощность ASCI Red в 1,7 раз, в итоге максимум составил 3,1 терафлопс. Однако на практике система смогла обеспечить только 58 процентов от теоретической производительности, показав результат в 2,121 терафлопса. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2000 года: ASCI Red 2.1» Нажмите, для открытия спойлера | Press to open the spoiler « После победы ASCI Red продержался в лидерах рейтинга TOP500 еще три года. В конечном итоге этот суперкомпьютер пережил еще одно увеличение количества процессорах ядер до 9632 штук. Теоретическая производительность остановилась на значении 3,207 терафлопс, а практическая (в Linpack) на отметке 2,379 терафлопс. В своей окончательной конфигурации ASCI Red занимал площадь в 230 квадратных метров и потреблял 850 киловатт энергии без учета системы охлаждения. ASCI Red находился в рейтинге TOP500 как один из самых быстрых в мире суперкомпьютеров до 2005 года и был выведен из эксплуатации в 2006 году. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2001: ASCI White» Нажмите, для открытия спойлера | Press to open the spoiler « В конце концов, ASCI Red уступил трон суперкомпьютеру, который специально был разработан ему на замену, мы говорим об ASCI White. Новый суперкомпьютер был установлен в Ливерморской национальной лаборатории. Система начала работать вполсилы в ноябре 2000 года и была завершена в июне 2001 года. В отличие от ASCI Red, созданного силами Intel, ASCI White дал шанс IBM показать свои возможности. ASCI White вмещал в себя 8192 процессоров IBM Power3 с тактовой частотой 375 МГц и следовал новой тенденции среди суперкомпьютеров - кластеризации. Кластерная архитектура представляет собой набор отдельных узлов соединенных вместе, которые работают как единая система. Сегодня кластеризация используется в 85 процентах суперкомпьютеров, значащихся в TOP500. Фактически ASCI White включал 512 серверов RS/6000 SP, каждый их которых содержал по 16 процессоров. Каждый процессор обладал теоретической вычислительной мощностью 1,5 гигафлопс, ввиду чего совокупный показатель ASCI White достигал 12,3 терафлопс. Его реальная производительность была значительно ниже и достигала только 7,2 терафлопса в бенчмарке Linpack (7,3 терафлопса 2003). ASCI White потреблял 3000 кВт мощности, и еще 3000 кВт требовала система охлаждения. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2002: Earth Simulator» Нажмите, для открытия спойлера | Press to open the spoiler « В июне 2002 года список TOP500 пополнился суперкомпьютером Earth Simulator. Он был создан для исследовательского центра Earth Simulator Center в Иокогаме и оказался на голову выше ASCI Red и ASCI White. Система смогла реализовать 87,5% процента своей теоретической производительности на практике, показав 35,86 терафлопсов в тесте Linpack - это примерно в пять раз больше, чем показатель ASCI White. Earth Simulator был предназначен для моделирования климата и оснащался специально спроектированными суперскалярными процессорами NEC, каждый из которых имел 4-уровневый суперскалярный модуль и векторный модуль. Компоненты системы работали при тактовой частоте 500 МГц либо 1 ГГц. Каждый процессор имел теоретическую вычислительную мощность 8 гигафлопс и потреблял 140 Вт. Всего в Earth Simulator было организовано 640 узлов по 8 процессоров. Энергопотребление каждого узла суперкомпьютера составляло примерно 10 киловатт. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2003: ASCI Q и Alpha EV6» Нажмите, для открытия спойлера | Press to open the spoiler « Высокие показатели производительности суперкомпьютера Earth Simulator обеспечил ему лидерство в TOP500 до июня 2004 года. Между тем, конкуренты продолжали бороться за второе место в списке. В июне 2003 года "серебро" принадлежало ASCI Q. Эта система была построена компанией HP в Национальной лаборатории в Лос-Аламосе. По плану ASCI Q включал три сегмента, каждый из которых содержал по 1024 серверов HP AlphaServer SC45. Однако в списке TOP500 указана система с двумя сегментами. Каждый сервер имел два процессора Alpha 21264 с тактовой частотой 1,25 ГГц. Общая теоретическая мощность системы составила 20,5 терафлопс, практическая в Linpack -13,9 терафлопс. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« The Intruder: System X или Big Mac» Нажмите, для открытия спойлера | Press to open the spoiler « Летом 2003 года Политехнический университет Вергинии решил собрать "недорогой" суперкомпьютер из общедоступных систем. System X (его еще называли Big Mac) состоял из 1100 работающих как одна систем Apple PowerMac G5, каждая из которых была оснащена двумя процессорами PowerPC 970 с тактовой частотой 2,3 ГГц. Строительство Big Mac заняло всего три месяца и стоило 5,2 миллиона долларов. Для сравнения Earth Simulator обошелся в 400 миллионов долларов. В ноябре 2003 года Big Mac получил третье место в рейтинге TOP500, продемонстрировав в Linpack 10,3 терафлопса вычислительной мощности. В 2004 году Big Mac был обновлен: системы PowerMac были заменены на Xserve, в результате вычислительная мощность увеличилась до 12,25 терафлопса. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Ноябрь 2004 года: Blue Gene/L» Нажмите, для открытия спойлера | Press to open the spoiler « В сентябре 2004 года Earth Simulator был окончательно повержен суперкомпьютером IBM BlueGene/L. Еще на стадии строительства он достиг 36 терафлопс. Когда в ноябре 2004 года создание компьютера было завершено, его вычислительная мощность составила 70,7 терафлопс, что в два раза больше чем у Earth Simulator. В июне 2005 года BlueGene/L был расширен и показал уже 136,8 терафлопс в тесте Linpack, то есть он обошел Earth Simulator более чем в четыре раза. BlueGene/L был тогда первым суперкомпьютером, перешедшим барьер 100 терафлопс. Чтобы добиться такого высокого показателя IBM использовала 65536 процессоров PowerPC 440 с тактовой частотой 700 МГц. Используемые процессоры не отличались высокой производительностью, но они были компактными и потребляли относительно немного энергии, что позволило IBM установить по два чипа на одной маленькой карте (на фотографии) и подключить ее к материнской плате внутри стойки. BlueGene/L показал превосходную производительность и достиг 75 процентов от своей теоретической вычислительной мощности в Linpack. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2006 года: BlueGene/L 2.0» Нажмите, для открытия спойлера | Press to open the spoiler « В конце 2005 года Blue Gene/L в Ливерморской национальной лаборатории удвоил число процессоров до 131072. В результате BlueGene/L 2.0 легко занял первое место в TOP500. В тесте Linpack он продемонстрировал 280,6 терафлопс. Благодаря маленьким и энергоэффективным чипам IBM конечная конфигурация BlueGene/L потребляла только 1,2 МВт мощности. На тот момент BlueGene/L был единственным суперкомпьютером превысившим 100 терафлопс. Машина, занимавшая второе место, выдавала 91,3 терафлопс. Обратите внимание, что также в июне 2006 года французский суперкомпьютер Tera 10 занял 6-е место с показателем 42,9 терафлопс. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2007 года: Jaguar» Нажмите, для открытия спойлера | Press to open the spoiler « Blue Gene/L оставался самым быстрым суперкомпьютером еще два года. Хотя ни одна другая система не могла сравниться с ним по производительности, некоторые суперкомпьютеры смогли приблизиться и преодолеть отметку в 100 терафлопс. В июне 2007 года планку в 100 терафлопс перескочили Jaguar (№ 2) и Re Storm (№ 3). Jaguar, который, кстати, постоянно модернизируется с 2005 года, состоял из серверов Cray XT3 и XT4, и знаменовал вступление AMD в высшую лигу, так как в этих системах использовались двухъядерные процессоры Opteron 2,6 ГГц. В общей сложности в Jaguar работали 23016 ядер, благодаря которым он достиг 101,7 терафлопс в тесте Linpack. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2008 года: Roadrunner» Нажмите, для открытия спойлера | Press to open the spoiler « В июне 2008 года IBM подвинула BlueGene/L системой IBM Roadrunner. Новый суперкомпьютер впервые в истории перешел порог в один петафлопс. Кроме того технологический прорыв заключался в том, что это был первый гибридный суперкомпьютер, использующий одновременно две существенно различающиеся процессорные архитектуры. В общей сложности The Roadrunner содержал 122400 ядер в процессорах IBM и AMD. 6562 двухъядерных процессора AMD64 Opteron работали на частоте 1,8 ГГц и были способны исполнять традиционные программы на архитектуре x86. Каждое ядро Opteron работало в паре с одним ядром PowerXCell 8i 3200 с тактовой частотой 3,2 ГГц, которое состояло из 1 PPE и 8 SPE. Эти процессоры IBM были похожи на те, что использовались в консолях Xbox 360 и Playstation 3. В этой конфигурации чипы PowerXCell 8i использовались в качестве сопроцессоров для CPU Opteron с целью повышения вычислительной мощности при необходимости. Совокупная теоретическая мощность Roadrunner составляла 1,38 петафлопс. Производительность в Linpack достигала 1,03 петафлопс и обеспечила ему первое место в TOP500. Одним из преимуществ гибридной архитектуры являлась высокая энергоэффективность. Roadrunner потреблял всего 2,35 МВт мощности и, следовательно, обеспечивал до 437 мегафлопс на ватт. Система была установлена в Лос-Аламосской лаборатории, весила 227 тонн и занимала площадь 483 м2. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2009 года: Roadrunner» Нажмите, для открытия спойлера | Press to open the spoiler « По аналогии с ASCI Red и BlueGene/L, Roadrunner удерживал лидерство в TOP500 в течение нескольких месяцев и модернизировался, что повышало его вычислительную мощность. В ноябре 2008 года общее количество вычислительных ядер увеличилось до 129600 штук, и производительность в Linpack подскочила до 1,1 петафлопс. Относительно небольшого увеличения производительности оказалось достаточно, чтобы Roadrunner сохранил звание самого быстрого суперкомпьютера в мире. Второе место занимал Jaguar, использующий сервера Cray XT5 вместо старых XT3 и XT4. Его показатель в Linpack составлял 1,059 петафлопс. На то время Jaguar и Roadrunner были единственными суперкомпьютерами с вычислительной мощностью более одного петафлопса. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2010 года: Jaguar 3.0» Нажмите, для открытия спойлера | Press to open the spoiler « В ноябре 2009 года Jaguar, наконец, удалось выбить Roadrunner с верхней позиции и стать самым быстрым суперкомпьютером в мире. Он состоял из двух блоков с серверами Cray. Старая часть вмещала 7832 сервера Cray XT4, в каждом был установлен четырехъядерный процессор Opteron 1354 Budapest с тактовой частотой 2,1 ГГц. Новый блок включал 18868 серверов Cray XT5, содержащих по два шестиядерных процессора Opteron 2435 Istanbul с тактовой частотой 2,6 ГГц. Теоретическая мощность этого компьютера оценивалась в 2,33 петафлопс, а практическая в Linpack - 1,76 петафлопс. В отличие от Roadrunner, Jaguar не отличался низким энергопотреблением и расходовал около 7 МВт мощности (253 мегафлопс на ватт). »» Нажмите, для закрытия спойлера | Press to close the spoiler «« 2010 года: в гонку вступает Китай с вычислениями на GPU. Nebulae и Tianhe-1A» Нажмите, для открытия спойлера | Press to open the spoiler « В 2010 году посоперничать за звание обладателя самого быстрого суперкомпьютера решил Китай. В июне 2010 года суперкомпьютер Nebulae имел самый высокий теоретический предел мощности в TOP500 - 2,98 петафлопс, но его реальная производительность в Linpack была ниже, чем у Jaguar. Затем, в ноябре 2010 года, появился Tianhe-1A, обогнавший Jaguar и Nebulae, как по теоретической, так и по практической вычислительной мощности. Эта система в теории могла обеспечить до 4,7 петафлопс мощности, но в Linpack удалось получить только 2,57 петафлопс. Tianhe-1A и Nebulae достигали высокой скорости за счет вычислений на графических процессорах. Подобно Roadrunner эти системы считаются гибридными суперкомпьютерами, поскольку сочетают процессоры x86 Intel Xeon X5600 (X5650 в Nebulae, X5670 в Tianhe-1A) с графическими процессорами NVIDIA Tesla (C2050 в Nebulae, M2050 в Tianhe-1A). Благодаря такому подходу вычисления GPGPU получили более широкое распространение. Гибридная конфигурация китайских суперкомпьютеров продемонстрировала превосходную эффективность. Tianhe-1A потреблял только 4 МВт, обеспечивая 640 мегафлопс на ватт потребляемой мощности. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2011 года: Fujitsu K Computer» Нажмите, для открытия спойлера | Press to open the spoiler « В июне 2011 года первенство по производительности суперкомпьютеров взяла Япония, представив Fujitsu K Computer, установленной в институте физико-химических исследований Riken. Fujitsu K Computer является одной из немногих машин, продемонстрировавших реальную производительность относительно близкую к своему теоретическому пределу. Система состояла из 68544 восьмиядерных процессоров SPARC64 VIIIfx, имеющих в сумме 548352 физических ядра. В отличие от Tianhe-1A этот суперкомпьютер не имел в своем активе графических процессоров для вычислений GPGPU. K Computer обеспечивал 8,16 петафлопс вычислительной мощности. Хотя K Supercomputer был значительно быстрее Tianhe-1A, он также потреблял значительно больше энергии - 9899 кВт по сравнению с 4000 кВт у Tianhe-1A. Поэтому эффективность была заметно хуже, чем у Tianhe-1A, и с добавлением дополнительных ядер (до 705024 штук) проблема не исчезла, энергопотребление возросло до 12650 кВт. Июнь 2011 отметился еще одним знаменательным событием в рейтинге TOP500: первые десять суперкомпьютеров в мире обладали вычислительной мощностью свыше одного петафлопса. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2012 года: Sequoia BlueGene/Q» Нажмите, для открытия спойлера | Press to open the spoiler « В июне 2012 года Sequoia BlueGene/Q стал первым суперкомпьютером, использующим более 1,5 миллиона процессорных ядер. Несмотря на огромный перевес в количестве ядер по сравнению с K Computer, его потребляемая мощность была почти вполовину меньше (7890 кВт). Система состояла из 16-ядерных процессоров PowerPC с тактовой частотой 1,6 ГГц и являлась первым устройством, чья теоретическая вычислительная мощность превысила 20 петафлопс. На практике система достигла 16 петафлопс. Машина была установлена в национальной лаборатории, принадлежащей Департаменту энергетики США. Таким образом, Соединенные Штаты вернули себе лидирующую позицию в списке TOP500. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Ноябрь 2012 года: Cray XK7 (Titan)» Нажмите, для открытия спойлера | Press to open the spoiler « В ноябре 2012 года IBM уступила первенство суперкомпьютеру Titan на базе Cray Xk7. Эта система содержала почти 300000 процессоров Opteron 6274 и более 260000 графических процессоров NVIDIA K20x. Это был второй случай, когда суперкомпьютер с процессорами AMD занял первое место в мире. Первым был Jaguar 3.0, лидировавший в июне 2010 года. Теоретическая вычислительная мощность Titan не превысила показатель BlueGene/Q, но реальная производительность составила 17,6 петафлопс, что выше, чем у BlueGene/Q. Вся система потребляла примерно 8209 кВт мощности и была развернута в Национальной лаборатории Ок-Ридж, принадлежащей Департаменту энергетики США. Другим значительным событием в ноябре 2012 года стало появление Xeon Phi. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Июнь 2013 года: Tianhe-2 (MilkyWay-2)» Нажмите, для открытия спойлера | Press to open the spoiler « В июне 2013 года Китай вернул себе лидерство, представив суперкомпьютер, который побил сразу несколько рекордов. Tianhe-2 превысил потолок теоретической вычислительной мощности 50 петафлопс, с показателем 54,9 петафлопс. Реальная производительность в Linpack была выше 33 петафлопс - это почти вдвое больше, чем у Cray Xk7, занявшего второе место. Чтобы добиться такой высокой производительности в Tianhe-2 было установлено рекордное количество процессорных ядер - 3,12 миллиона. Кроме того он оказался самым прожорливым суперкомпьютером с потребляемой мощностью 17808 кВт. Tianhe-2 установлен в Национальном университете оборонных технологий. Система оказалась неожиданностью для всех, поскольку была запущена на два года раньше планируемого срока. Каждый узел в Tianhe-2 состоит из двух 12-ядерных процессоров Xeon E5-2692 с тактовой частотой 2,2 ГГц, а также трех вычислительных карт Xeon Phi 31S1P, выполняющих большую часть работы. На сегодняшний день Tianhe-2 сохраняет звание самого быстрого суперкомьпютера в мире и занимает первое место в рейтинге TOP500. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Источник: THG | |
| |
5.07.2016 - 23:24 |
HugoBo-SS
тут-та-ту
[SoftoRooMTeaM]
Группа: Модераторы Сообщений: 10.906 Регистрация: 3.04.2008 Из: Russia SPb Пользователь №: 827.869
Респектов: 4350
| Никогда не сдавайся: как Netscape вел неравную борьбу с Internet Explorer
Считается, что первый браузер появился 25 декабря 1990 года. Его создателем был Тим Бернерс-Ли, младший сотрудник Европейской организации по ядерным исследованиям. По его словам, разработка не заняла много времени (около двух месяцев), потому что он использовал платформу со специальным конструктором приложений. Тим создал так называемый Консорциум всемирной паутины (World Wide Web Consortium, сокращенно W3C), который разрабатывал стандарты, внедряемые в программное обеспечение. К концу 1992 года, кроме самого первого браузера под названием WorldWideWeb, на рынке появилось множество других, большинство из которых было основано на библиотеке libwww – Line Mode Browser, ViolaWWW, Erwise, MidasWWW, MacWWW и другие. Следующими браузерами, выпущенными в 1993 году, были Cello, Arena, Lynx, tkWWW и NCSA Mosaic. Mosaic, мультиплатформенный браузер, был разработан в организации National Center for Supercomputing Applications (NCSA). В октябре 1994 года Mosaic был на пути к превращению в эталонный для всего мира интерфейс. Несколько компаний лицензировали Mosaic, чтобы создать свои собственные коммерческие браузеры, такие как AirMosaic и Spyglass Mosaic. Один из разработчиков Mosaic, Марк Андриссен, основал Mosaic Communications Corporation и создал новый веб-браузер под названием Mosaic Netscape. Чтобы разрешить проблемы лицензирования с NCSA, компания была переименована в Netscape Communications Corporation, а браузер — в Netscape Navigator. Браузер Netscape улучшил удобность и надёжность Mosaic и получил возможность отображать страницы постепенно, по мере их загрузки. К 1995 году, благодаря своей бесплатности для некоммерческого использования, браузер доминировал в сети. К этому времени в свет вышли ещё несколько браузеров, в числе которых были IBM Web Explorer, WebRouser, UdiWWW и Microsoft Internet Explorer. К середине 1995 года интернет получил широкое освещение в популярной культуре и СМИ. Netscape Navigator был самым широко используемым веб-браузером, и Microsoft приобрела лицензию на Mosaic, чтобы создать Internet Explorer 1.0, выпущенный как часть пакета Windows 95 Plus! в августе. Спустя три месяца для бесплатной загрузки был выложен браузер Internet Explorer 2.0. В отличие от Netscape Navigator, он был бесплатно доступен всем пользователям Windows, даже коммерческим компаниям. Новые версии браузеров Internet Explorer и Netscape в течение нескольких следующих лет выпускались, пытаясь обогнать друг друга. История IE» Нажмите, для открытия спойлера | Press to open the spoiler « Проект по разработке Internet Explorer был запущен в 1994 году Томасом Риардоном. Согласно данным обзора Массачусетского технологического института в 2003 году, он использовал исходный код программы Mosaic разработчика Spyglass, Inc., который формально связан с браузером NCSA Mosaic. Первая версия Internet Explorer, Microsoft Internet Explorer вышла 16 августа 1995 года и представляла собой переработанную версию браузера Spyglass Mosaic. Ряд инноваций, предложенных Internet Explorer, стали впоследствии использоваться другими браузерами. Среди них элемент HTML iframe, который позволяет встраивать одни HTML-документы в другие (был добавлен в Internet Explorer 3), значок для избранного (favicon), который появился в Internet Explorer 4, и свойство для динамического обновления содержимого элементов innerHTML в Internet Explorer 4. Для Internet Explorer 5 был разработан XMLHttpRequest, который позволил осуществлять HTTP-запросы к серверу без перезагрузки страницы. В этой версии также появился способ захвата и перетаскивания элементов (drag-and-drop), который почти без изменений был стандартизирован в HTML5 и теперь поддерживается почти всеми веб-браузерами. Аналогично был адаптирован атрибут contentEditable, который был добавлен в версии Internet Explorer 5.5 и позволял редактировать часть страницы прямо в браузере, а также Clipboard Access с IE6, дающий браузеру доступ к буферу обмена в определенных ситуациях. Internet Explorer 6 был первым браузером, интегрировавшим в себя платформу P3P, представляющую из себя средство обеспечения конфиденциальности данных пользователя. Internet Explorer 7, в свою очередь, включал новые функции, призванные обеспечить безопасность пользователя и оградить его конфиденциальные данные от вирусов и сетевых атак. Windows Internet Explorer 8 (IE8) вышел 19 марта 2009 года. Версию поддерживают второй и третий пакеты обновлений для Windows XP, второй пакет обновлений Windows Server 2003, Windows Vista, Windows 7 и Windows Server 2008 на 32 — и 64-битной архитектуре. Microsoft назвала в качестве главных приоритетов в разработке новой версии безопасность, простоту в использовании, и усовершенствование в поддержке RSS, CSS, и Ajax IE8. Разработка Windows Internet Explorer 9 началась почти сразу же после выхода Internet Explorer 8 и версия была выпущена 14 марта 2011 года. Microsoft впервые объявила о начале разработки IE9 на конференции PDC в 2009 году, где обратила основное внимание на преимущества аппаратного ускорения в DirectX для повышения производительности веб-приложений. Internet Explorer 9 предназначен только для Windows Vista SP2, Windows 7 и Microsoft Windows Server 2008. Браузер поддерживает некоторые характеристики CSS 3, встроенную поддержку цветовых ICC-профилей версии 2 или 4 через Windows Color System. 32-битная версия имеет более высокую производительность JavaScript благодаря модулю под названием «Chakra». Internet Explorer 9 стал первым браузером, в котором использовалось аппаратное ускорение отображения графики благодаря использованию интерфейса программирования приложений Direct2D. Internet Explorer 10 был выпущен 26 октября 2012 года вместе с Windows 8 и Windows Server 2012. Для Windows 7 версия стала доступна 26 февраля 2013 года. В Windows 8 браузер разделен на две версии: первая версия браузера, созданная с нуля для управления на сенсорных устройствах — в интерфейсе Modern UI без поддержки плагинов, вторая — традиционное приложение рабочего стола, в которой сохранена возможность расширения за счет плагинов. В этой версии браузера была усовершенствована поддержка JavaScript, CSS3 и HTML5 и аппаратного ускорения. Internet Explorer 11 вышел в обновлении Windows 8.1, которое было представлено 17 октября 2013 года. Этот релиз включил в себя улучшенное масштабирование для экранов с большим расширением, предварительную загрузку HTML5, перемещение элементов мышью, аппаратно ускоренное декодирование изображений формата JPEG, и полноэкранный режим HTML5. Internet Explorer 11 является первой версией, поддерживающей WebGL555657 и протокол SPDY (начиная с версии 3). Microsoft заявила, что Internet Explorer 11 при прохождении теста для измерения исполнительности JavaScript SunSpider является самым быстрым браузером для Windows по состоянию на 15 октября 2013 года. После выхода Windows 10 разработчики заменили IE на новый браузер – Microsoft Edge. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« История Netscape Browser» Нажмите, для открытия спойлера | Press to open the spoiler « Netscape Navigator — браузер, производившийся компанией Netscape Communications с 1994 по 2007 год. Первые бета-версии браузера, выпущенные в 1994 году, назывались Mosaic, затем Mosaic Netscape. На момент создания браузер обладал самыми широкими возможностями, что обеспечило ему лидерство на рынке, несмотря на то, что он существовал тогда в виде бета-версии. После выпуска версии 1.0 доля на рынке продолжила стремительный рост. В версию 2.0 была встроена полнофункциональная программа для работы с электронной почтой. Netscape превратился из просто браузера в семейство программ для работы в Интернете. В течение этого периода сам браузер и семейство программ носили одно название — Netscape Navigator. Netscape 3.0 стал браузером номер один в мире. Данный релиз существовал также в версии Gold, содержащей WYSIWYG — HTML-редактор, который позже стал стандартной функцией Netscape Communicator. Netscape 3.0 предлагал множество новых функций, таких как плагины, цветные фоны таблиц, элемент applet. С выпуском Netscape 4 была решена проблема одинакового названия собственно браузера и всего семейства программ: семейство программ было переименовано в Netscape Communicator. После выпуска пяти предварительных релизов (в 1996—1997 годах) в июне 1997-го года Netscape Corp. выпустила финальную версию Netscape Communicator. Эта версия была основана на обновлённом коде Netscape Navigator 3, в нее были добавлены такие возможности, как поддержка некоторых элементов CSS1, элемента object, минимальная поддержка различных шрифтов. Семейство программ Netscape Communicator включало в себя браузер Netscape Navigator, программу для работы с электронной почтой и новостными группами Netscape Mail and Newsgroups, адресную книгу Netscape Address Book и HTML-редактор Netscape Composer. В октябре 1998 года была выпущена версия 4.5. В новой версии появилось много новых возможностей, особенно в почтовом клиенте. При этом ядро не обновилось и по своей функциональности в основном соответствовало версии 4.08. Вместе с тем обострилась проблема задержек выхода основных версий программы. В Netscape Communicator 4.x существовало большое число ошибок обработки HTML и CSS, а объектная модель документа (DOM), предложенная Netscape, не нашла поддержки в W3C, который принял за основу вариант, предложенный Microsoft, которая в то время была основным спонсором консорциума. В результате новым лидером на рынке стал Microsoft Internet Explorer 4 (а позднее — 5.0), благодаря лучшей поддержке HTML 4, CSS, DOM и ECMAScript. В ноябре 1998 года работа над Netscape 5.0 была прекращена и было принято решение начать разработку абсолютно новой программы с нуля. Новый исходный код был назван Mozilla, на основе которого с небольшими изменениями был создан Netscape 6. В январе 1998 года Netscape приняла решение разрабатывать браузер в рамках проекта с открытым исходным кодом. Была создана неформальная группа Mozilla Organization, которая в основном финансировалась Netscape. Решение начать разработку браузера с нуля означало значительную задержку выпуска очередной версии. В это время Netscape была поглощена корпорацией AOL, которая, действуя под давлением проекта веб-стандартов (Web Standards Project), ускорила выход Netscape версии 6.0: она появилась в 2000 году. Версия 7 (кодовое имя Mach V) стала называться просто Netscape, браузер в составе семейства программ сохранил своё название Netscape Navigator. Netscape 7.0, основанный на коде Mozilla 1.0.1, был выпущен в августе 2002 года и был прямым продолжением Netscape 6 с теми же компонентами. Netscape Browser 8 основан на коде Mozilla Firefox 1.0. В отличие от своего огненного брата, Netscape работает только в семействе операционных систем Windows (98SE, ME, 2000 и XP). Восьмерка больше не является интегрированным пакетом, оставив в своем арсенале лишь браузер. Базовая функциональность и большинство элементов пользовательского интерфейса наследуются от Mozilla Firefox. Netscape 8 позволяет использовать два HTML-движка одновременно. «Родной» движок браузера — Gecko 1.7.5. Кроме того, браузер может подключать движок Trident, используемый Internet Explorer 5 или 6. Данная возможность, присутствующая в браузере изначально, обеспечивает 100% вероятность правильного отображения сайтов. С помощью специального менеджера можно запоминать правила выбора движка для каждого сайта в отдельности. Последней версией браузера является 9.0 именуемая Netscape Navigator. Первая бета-версия была выпущена 5 июня 2007 года. Разрабатывалась корпорацией Netscape Communications на движке Gecko 1.9, который используется в Mozilla Firefox 2.0. 28 декабря 2007 года компания объявила о прекращении поддержки и разработки браузера. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Microsoft VS Netscape» Нажмите, для открытия спойлера | Press to open the spoiler « Война браузеров была бы исключительно коммерческим делом корпораций, если бы основным приёмом в борьбе не стало добавление специфических, нестандартных возможностей к браузеру. Наибольшие различия возникали в поддержке JavaScript — языка сценариев, придающего интерактивность документам. В результате многие документы были «оптимизированы» для конкретного браузера и совершенно не читались в другом. W3C принимает множество тщательно обсуждаемых стандартов (различных версий HTML, JavaScript, CSS и другие), но соблюдение этих стандартов полностью ложится на разработчиков браузеров. В 1997 году был выпущен Internet Explorer 4.0. На вечеринке в Сан-Франциско в честь выпуска программы был представлен трёхметровый логотип IE. На следующее утро работники Netscape, придя на работу, обнаружили эту конструкцию на газоне перед своим офисом, с запиской «От команды IE… Мы любим вас». Работники повалили эту инсталляцию и в ответ разместили на ней фигуру своего фирменного персонажа — динозавра, прикрепив ему к лапам знак с надписью «Netscape 72, Microsoft 18», имея в виду распределение долей рынка. Internet Explorer 4 переломил ход войны браузеров. Он был интегрирован в Microsoft Windows. ИТ-специалисты и промышленные критики считали его технологически невыгодным и видели в такой практике очевидную эксплуатацию монополии Microsoft на платформе ПК. Но пользователи не видели выгоды от использования конкурирующих продуктов, потому что IE «уже был» на их ПК. Вот что поведал про «победу» над Netscape один из разработчиков IE 5.0 Хади Партови (Hadi Partovi): В середине 90-х Microsoft наняла самых лучших и талантливых программистов для решения «интернет-проблемы», то есть в команду разработчиков браузера (IE) и сервера (IIS). Руководить двумя командами разработчиков поручили вице-президенту Брэду Сильвербергу (Brad Silverberg), одному из лучших менеджеров в истории Microsoft, который перед этим занимался выпуском на рынок невероятно успешного проекта Windows 95. Вся команда разработчиков Internet Explorer состояла из суперзвёзд: «Наша работа была больше, чем просто работой. Это была страсть и дело всей жизни. Мы завтракали, обедали и ужинали на рабочем месте, мы работали до поздней-поздней ночи, — вспоминает Партови. – У нас было такое чувство, что многомиллиардная компания лишится будущего, если мы не вскочим на интернет-волну и не сделаем браузер № 1 на планете». Выпуск Internet Explorer 5 состоялся 18 марта 1999 года. «И мы сделали браузер вдвое быстрее и в 100 раз стабильнее, чем глючный Netscape Navigator», — пишет Хади Партови. Он уверен, что благодаря высокому качеству программы рыночная доля Internet Explorer 5.0 начала расти, а браузер выиграл 100% сравнительных тестов в СМИ. У корпорации Microsoft были мощные преимущества. Первым были ресурсы — Netscape начинал с почти 80% рынка и хорошей репутацией, но был маленькой компанией, получающей основную прибыль с единственного продукта и его дополнительных компонентов и поэтому был финансово уязвим. Netscape был платным для коммерческих компаний, но поставлялся бесплатно для домашнего и образовательного использования. Internet Explorer поставлялся бесплатно для всех пользователей Macintosh и Windows, получая за счёт этого огромное преимущество. Другой сильной стороной Microsoft было то, что система Windows занимала более 90% рынка операционных систем для ПК. В те времена много покупок ПК были первыми случаями такой покупки, и множество пользователей до этого не пользовались никакими браузерами, и поэтому не имели предметов для сравнения и обладали низкой мотивацией для поиска альтернатив. Судебное разбирательство Netscape не стала сдаваться без боя и в 1997 году подала на Microsoft в суд, обвинив компанию в монополии. Главной причиной иска стала интеграция Internet Explorer в Windows, что нарушало нормы честной конкуренции. Адвокаты Microsoft исходили из того, что браузер был добавлен на уровне исходного кода, и убрать его из текущей версии ОС фактически невозможно. Netscape настаивали, что это ложь, и предлагали собственный выход из ситуации — полный запрет использования Internet Explorer. У Гейтса был убедительный аргумент: с помощью интеграции IE корпорация обеспечивает своим пользователям качественный софт, и запрещать браузер было бы несправедливо по отношению к ним. В итоге Microsoft пообещала выпустить версию Windows 95 без своего браузера, но благодаря апелляциям запрет на интеграцию IE не действовал на следующую версию операционной системы, которая должна была вскоре увидеть свет. В итоге компания заключила договор с министерством юстиции США, по которому обязалась лицензировать часть разработок, позволять производителям ПК заменять софт на альтернативный и разрешить надзор над своими документами. Решение было странным, особенно если учесть, что в суде доказали, какой вес имела в то время Microsoft. Netscape не смогла противостоять демпингу, и в 1999 году корпоративный рынок браузеров перестал существовать — полностью бесплатный Explorer захватил более 90 процентов рынка. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Продолжение следует Первая «война браузеров» завершилась победой Internet Explorer, захватившего почти 100% рынка и отсёкшего всех сколь-либо серьёзных конкурентов. В это же время закончилась гонка инноваций в браузерах. И даже в этой ситуации команда Netscape не опустила руки и выпустила исходный код своего браузера под свободной лицензией MPL (Mozilla Public License). На его основе были созданы новые браузеры Mozilla Suite и Mozilla Firefox. Последний должен был «отомстить» Microsoft. Источник: habrahabr | |
| |
10.09.2016 - 15:11 |
HugoBo-SS
тут-та-ту
[SoftoRooMTeaM]
Группа: Модераторы Сообщений: 10.906 Регистрация: 3.04.2008 Из: Russia SPb Пользователь №: 827.869
Респектов: 4350
| Direct3D vs OpenGL: история противостояния
По сей день в Интернете можно встретить споры о том, какой же графический API лучше: Direct3D или OpenGL? Несмотря на свой религиозный характер, такие словесные баталии приносят полезный результат в виде неплохих исторических обзоров развития аппаратно-ускоренной графики. Целью данного поста является перевод одного из таких экскурсов в историю, написанного Джейсоном МакКессоном (Jason L. McKesson) в ответ на вопрос «Почему разработчики игр предпочитают Windows». Этот текст вряд ли отвечает на поставленный вопрос, но историю развития и противостояния двух самых популярных графических API он описывает очень красочно и довольно подробно. Текст написан в середине 2011 года и охватывает промежуток времени, начинающийся незадолго до появления Direct3D и до момента написания. Автор оригинального текста является опытным разработчиком игр, активным участником StackOverflow и создателем обширного учебника о современном программировании 3D-графики. Итак, предоставим слово Джейсону. Рождение конфликта» Нажмите, для открытия спойлера | Press to open the spoiler « Однажды, где-то в начале 90-х, Microsoft огляделись вокруг. Они увидели, что SNES и Sega Genesis — это очень здорово, на них можно поиграть во множество экшн-игр и всего такого. И они увидели ДОС. Разработчики писали досовские игры как консольные: близко к железу. Тем не менее, в отличие от консолей, где разработчик знал, какое железо будет у пользователя, дос-разработчики были вынуждены писать под множество конфигураций. А это намного сложнее, чем кажется. Но у Microsoft была бо́льшая проблема: Windows. Видите ли, Windows хотела полностью владеть железом в отличие от ДОС, которая позволяла разработчикам делать всё что угодно. Владение железом необходимо для взаимодействия между приложениями. Но такое взаимодействие — это в точности то, что ненавидят разработчики игр, потому что оно потребляет драгоценные ресурсы, которые они могли бы использовать для всяких крутых вещей. Для продвижения разработки игр на Windows, Microsoft нуждалась в однородном API, который был бы низкоуровневым, работал бы на Windows без потерь производительности, и был бы совместим с различным железом. Единый API для графики, звука и устройств ввода. Так родился DirectX. 3D ускорители появились несколько месяцев спустя. И Microsoft вляпались в неприятности. Дело в том, что DirectDraw, графический компонент DirectX, работал только с 2D графикой: выделял графическую память и делал быстрые битовые операции между различными секторами памяти. Поэтому Microsoft купили немного стороннего ПО и превратили его в Direct3D версии 3. Его ругали абсолютно все. И было за что: чтение кода на D3D v3 выглядело как расшифровка письменности исчезнувшей древней цивилизации. Старик Джон Кармак в Id Software посмотрел на это безобразие, сказал «Да пошло оно...», и решил писать с использованием другого API: OpenGL. Однако другая сторона этой запутанной истории заключалась в том, что Microsoft совместно с SGI работали над реализацией OpenGL для Windows. Идея была в том, чтобы привлечь разработчиков типичных GL-приложений для рабочих станций: САПР, систем моделирования и тому подобных вещей. Игры были последним, о чём они думали. В основном это касалось Windows NT, но Microsoft решили добавить OpenGL и в Windows 95. Чтобы сманить разработчиков софта для рабочих станций на Windows, Microsoft решили подкупить их доступом к новомодным 3D-ускорителям. Они реализовали протокол для устанавливаемых клиентских драйверов: графическая карта могла заменить программный OpenGL от Microsoft своей аппаратной реализацией. Код автоматически использовал аппаратный OpenGL, если таковой был доступен. Однако, в те времена потребительские видеокарты не имели поддержки OpenGL. Это не остановило Кармака от портирования Quake на OpenGL на рабочей станции SGI. В readme-файле GLQuake можно прочитать следующее: Теоретически, glquake запустится на любой реализации OpenGL, которая поддерживает расширение texture objects. Но пока вы не запустите её на очень мощном железе, которое ускоряет всё, что нужно, работать она будет непростительно медленно. Если игре потребуется работать через какие-либо программные эмуляции, её производительность скорее всего не превысит один кадр в секунду.
В настоящее время (март 1997), единственной полностью совместимой с opengl железкой, способной потянуть glquake на приемлемом уровне, является ОЧЕНЬ дорогая видеокарта intergraph realizm. 3dlabs существенно увеличили её производительность, но с имеющимися драйверами она всё ещё недостаточно подходит для игры. Некоторые из драйверов от 3dlabs для плат glint и permedia ещё и крэшат NT при выходе из полноэкранного режима, поэтому я не рекомендую запускать glquake на железе от 3dlabs.
3dfx предоставляет opengl32.dll, которая реализует все нужное для glquake, но это не полная реализация opengl. Другие opengl-приложения скорее всего с ней не заработают, поэтому рассматривайте её в основном как «драйвер для glquake».Это было рождением miniGL драйверов. В те времена пользовался линейкой от S3 Graphics ( последовательно были S3 Savage 3D, S3 Savage4 b S3 Savage 2k). У них OpenGL расширения драйвера назывались Metal (как сейчас у Apple ) ( HugoBo-SS) В конечном итоге они эволюционировали в полноценные реализации OpenGL, как только железо стало достаточно мощным для аппаратной поддержки этой функциональности. nVidia стала первой, кто предложил полную реализацию OpenGL. Другие поставщики всё ещё медлили, что стало одной из причин перехода разработчиков на Direct3D, поддерживаемый более широким спектром оборудования. В конце концов остались только nVidia и AMD (которая сейчас ATI), и у обеих имелись хорошие реализации OpenGL. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Рассвет OpenGL» Нажмите, для открытия спойлера | Press to open the spoiler « Итак, участники определены: Direct3D против OpenGL. Это поистине удивительная история, учитывая то, как плох был D3D v3. Совет по архитектуре OpenGL (Architectural Review Board, ARB) — это организация, ответственная за поддержание и развитие OpenGL. Они выпускают множество расширений, содержат репозиторий с расширениями, и создают новые версии API. ARB — это комитет, состоящий из большого количества игроков индустрии компьютерной графики и некоторых производителей ОС. Apple и Microsoft в разное время тоже были членами ARB. 3Dfx выходит на сцену со своей Voodoo2. Это первая видеокарта, позволяющая делать мультитекстурирование, которое не было ранее предусмотрено в OpenGL. В то время как 3Dfx была решительно против OpenGL, nVidia, следующий производитель чипа с мультитекстурированием (TNT1), были без ума от OpenGL. Тогда ARB выпустил расширение GL_ARB_multitexture, которое предоставляло доступ к множественным текстурам. Тем временем появляется Direct3D v5. Теперь D3D действительно стал API, а не какой-то несуразицей. В чём же проблема? В отсутствии мультитекстурирования. Упс. Но это не доставляло таких неудобств, какие могло бы доставить, потому что почти никто не использовал множественное текстурирование. Мультитекстурирование почти не вредит производительности, и во многих случаях разница незаметна на фоне многопроходности. И конечно, разработчики игр очень любят чтобы их игры уверенно работали на старом железе, которое не имело поддержку множественных текстур, поэтому многие игры были выпущены без неё. D3D вздохнул с облегчением. Время шло, и nVidia выкатили GeForce 256 (не путать с самым первым GeForce GT-250), прекратив борьбу на рынке графических плат на следующие два года. Главным конкурентным преимуществом этой платы была возможность делать преобразования вершин и освещение (transformation & lighting, T&L) аппаратно. Но это ещё не всё: nVidia любила OpenGL настолько, что их T&L-движок фактически и был OpenGL. Почти буквально! Как я понимаю, некоторые из их регистров получали на вход напрямую численные значения переменных типа GLenum. Выходит Direct3D v6. Наконец то подоспело множественное текстурирование… но без аппаратного T&L. В OpenGL всегда был T&L-конвейер, хотя до GeForce 256 он был реализован программно. Поэтому для nVidia оказалось довольно просто переделать программную реализацию в аппаратное решение. В D3D аппаратное T&L появилось только к седьмой версии. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Заря эпохи шейдеров, OpenGL во мгле» Нажмите, для открытия спойлера | Press to open the spoiler « Затем появилась GeForce 3. В то же самое время произошло много интересных вещей. В Microsoft решили, что они больше не собираются опаздывать. Поэтому вместо того, чтобы смотреть, что сделает nVidia, и копировать их разработки уже пост-фактум, Microsoft приняли изумительное решение: пойти и поговорить. И они полюбили друг друга, и у них появилась совместная маленькая консоль. Шумный развод произошёл позже, но это совсем другая история. Для рынка PC это значило, что GeForce 3 вышла одновременно с D3D v8, и нетрудно видеть, как GeForce 3 повлияла на шейдеры D3D v8. Пиксельные шейдеры Shader Model 1.0 были очень сильно заточены под оборудование nVidia. Не было предпринято ни единой попытки сделать хоть что нибудь для абстрагирования от железа nVidia. Shader Model 1.0 стала тем, для чего предназначена GeForce 3. Когда ATI ворвалась в гонку производительности видеокарт со своей Radeon 8500, появилась одна проблема. Пиксельный конвейер Radeon 8500 оказался более мощным, чем у nVidia. Поэтому Microsoft выпустила Shader Model 1.1, которая в основном была тем, для чего предназначена 8500. Это звучит как поражение D3D, но успех и провал — понятия относительные. На самом деле эпический провал поджидал OpenGL. В nVidia очень любили OpenGL, поэтому после выхода GeForce 3 они выпустили целую пачку расширений для OpenGL. Проприетарных расширений, которые работали только на nVidia. Естественно, когда появилась плата 8500, она не могла использовать ни одно из них. Итак, на D3D 8 вы могли хотя бы запустить шейдеры SM 1.0. Конечно, чтобы использовать всю крутость 8500, приходилось писать новые шейдеры, но код хотя бы работал. Чтобы получить любые шейдеры на Radeon 8500 в OpenGL, ATI пришлось разработать несколько расширений для OpenGL. Проприетарных расширений, которые работали только на ATI. В итоге, чтобы разработчики могли заявить, что они прикрутили к своему движку шейдеры, им приходилось писать отдельный код для nVidia и отдельный код для ATI. Вы возможно спросите: «А где же был комитет ARB, который должен поддерживать OpenGL на плаву?». А были они там, где в конечном итоге оказываются многие комитеты: они сидели и тупили. Обратите внимание, выше я упомянул ARB_multitexture, потому что это расширение глубоко замешано во всей ситуации. Стороннему наблюдателю казалось, что ARB вообще хочет избежать идеи шейдеров. Они решили, что если они вбухают достаточно конфигурируемости в фиксированный конвейер, то он сравняется по своим возможностям с программируемым шейдерным конвейером. ARB выпускали расширения одно за другим. Каждое расширение со словами «texture_env» в названии было попыткой залатать этот устаревающий дизайн. Посмотрите на список расширений: таких расширений было выпущено восемь штук, и многие из них были переведены в основную функциональность OpenGL. В то время Microsoft входила в ARB, и покинула его только к выпуску D3D 9, поэтому возможно, Microsoft саботировали OpenGL некоторым образом. Лично я сомневаюсь в этой теории по двум причинам. Во-первых, они должны были бы заручиться поддержкой других членов Комитета, потому как каждый участник имеет всего один голос. Во-вторых, что более важно, Комитету не нужна была помощью Microsoft чтобы всё запороть, свидетельства чему мы увидим далее. В итоге ARB, скорее всего под давлением ATI и nVidia (обе являются активными участниками), наконец очнулся и ввёл в стандарт ассемблерные шейдеры. Хотите ещё более дурацкую историю? Аппаратное T&L. Это то, что в OpenGL было изначально. Чтобы получить максимально возможную производительность аппаратного T&L, нужно хранить данные вершин на GPU. Все-таки, GPU — это основной потребитель вершинных данных. В D3D v7 Microsoft ввела концепцию вершинных буферов, которые выделяют куски памяти в GPU и размещают там данные вершин. Хотите знать когда в OpenGL появилась эквивалентная функциональность? Да, nVidia, как самый большой любитель OpenGL, выпустила своё расширение для хранения массивов вершин на GPU ещё во времена выхода GeForce 256. Но когда же ARB представил такую функциональность? Два года спустя. Это было после того, как она утвердили вершинные и фрагментные (пиксельные в терминах D3D) шейдеры. Столько времени ушло у ARB чтобы разработать кросс-платформенное решение для хранения вершинных данных в памяти GPU. И это то, что необходимо, чтобы аппаратное T&L достигло максимальной производительности. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Один язык, чтобы убить их всех» Нажмите, для открытия спойлера | Press to open the spoiler « Итак, OpenGL был сломан в течение какого-то времени. Отсутствовали кросс-платформенные шейдеры и аппаратно-независимое хранение вершин в GPU, в то время как пользователи D3D наслаждались и тем и другим. Могло ли стать ещё хуже? Можно сказать, что могло. Встречайте: 3D Labs. Вы спросите: кто же они? Они — мёртвая компания, которую я считаю истинным убийцей OpenGL. Конечно, общая несостоятельность Комитета сделала OpenGL уязвимым, в то время как он должен был рвать D3D в клочья. Но по-моему, 3D Labs — возможно единственная причина текущего положения OpenGL на рынке. Что они для этого сделали? Они разработали язык шейдеров для OpenGL. 3D Labs были умирающей компанией. Их дорогостоящие GPU были вытеснены с рынка рабочих станций всё возрастающим давлением nVidia. И в отличие от nVidia, 3D Labs не были представлены на потребительском рынке; победа nVidia означала бы смерть для 3D Labs. Что в итоге и случилось. В стремлении оказаться на плаву в мире, которому были не нужны их продукты, 3D Labs заявились на конференцию Game Developer Conference с презентацией того, что они назвали «OpenGL 2.0». Это был OpenGL API, переписанный с нуля. И это имело смысл, ибо в те времена в API OpenGL было полно хлама (который, впрочем, остаётся там и по сей день). Посмотрите хотя бы на то, насколько эзотерически сделаны загрузка и биндинг текстур. Частью их предложения был язык шейдеров. Да, именно он. Тем не менее, в отличие от имеющихся кросс-платформенных расширений, их язык шейдеров был «высокоуровневым» (C — это высокий уровень для языка шейдеров). В это же время в Microsoft работали над своим собственным языком шейдеров. Который они, включив всё своё коллективное воображение, назвали… Высокоуровневым Языком Шейдеров (HLSL). Но их подход к языку был фундаментально иным. Наибольшей проблемой языка от 3D Labs было то, что он был встраиваемым. Microsoft полностью самостоятельно определяла свой язык. Они выпустили компилятор, который генерировал ассемблерный код для шейдеров SM 2.0 (или выше), который, в свою очередь, можно было скармливать D3D. Во времена D3D v9, HLSL никогда не касался D3D напрямую. Он был хорошей, но необязательной абстракцией. У разработчика всегда была возможность взять выхлоп компилятора и подправить его для максимальной производительности. В языке от 3D Labs ничего этого не было. Вы отдаёте драйверу C-подобный язык, и он создаёт шейдер. На этом всё. Никакого ассемблерного шейдера, ничего, что можно скормить чему-то ещё. Только объект OpenGL, представляющий шейдер. Для пользователей OpenGL это означало, что они становились подвержены капризам разработчиков OpenGL, которые только научились компилировать ассемблероподобные языки. В компиляторах новорождённого языка шейдеров OpenGL (GLSL) свирепствовали баги. Что ещё хуже, если вам удавалось заставить шейдер корректно компилироваться на различных платформах (что уже само по себе было большим достижением), то он всё ещё был подвержен оптимизаторам тех времён, которые были не так уж оптимальны, как могли бы быть. Это было большим, но не единственным недостатком GLSL. Далеко не единственным. В D3D, как и в старых ассемблерных языках OpenGL, можно было смешивать и всячески комбинировать вершинные и фрагментные шейдеры. Можно было использовать любой вершинный шейдер с любым совместимым фрагментным шейдером, если они взаимодействовали через одинаковый интерфейс. Более того, допускалась даже некоторая несовместимость: например, вершинный шейдер мог подать на выход значение, которое не использовалось фрагментным шейдером. В GLSL ничего такого не было. Вершинный и фрагментный шейдер сплавлялись воедино, образовывая нечто, названное компанией 3D Labs «программным объектом». Поэтому, для совместного использования нескольких вершинных и фрагментных шейдеров в различных комбинациях, приходилось создавать несколько программных объектов. Это стало причиной второй по величине проблемы. 3D Labs думали, что они самые умные. Они взяли C/C++ за основу для модели компиляции GLSL. Это когда вы берёте один c-файл и и компилируете его в объектный файл, а затем берёте несколько объектных файлов и компонуете их в программу. Именно так компилируется GLSL: сначала вы компилируйте вершинный или фрагментный шейдер в шейдерный объект, затем помещаете эти объекты в программный объект и компонуете их воедино чтобы наконец сформировать программу. В теории это позволяло появиться таким крутым вещам, как «библиотечные» шейдеры, которые содержат код, вызываемый основным шейдером. На практике это приводило к тому, что шейдеры компилировались дважды: один раз на стадии компиляции и второй раз на стадии компоновки. В частности, этим славился компилятор от nVidia. Он не генерировал какой-либо промежуточный объектный код; он компилировал вначале, выбрасывал полученный результат и компилировал заново на стадии компоновки. Таким образом, чтобы приделать вершинный шейдер к двум разным фрагментным шейдерам, приходилось компилировать намного больше, чем в D3D. Особенно с учётом того, что вся компиляция производится оффлайново, а не перед непосредственным исполнением программы. У GLSL были и другие проблемы. Возможно, было бы неправильным сваливать всю вину на 3D Labs, ибо в конечном итоге ARB утвердили и включили в OpenGL язык шейдеров (но ничего больше из предложений 3DLabs). Однако, изначальная идея всё равно была за 3D Labs. И теперь самое печальное: 3D Labs были правы (в основном). GLSL не векторный язык, каким в то время был HLSL. Так случилось потому, что железо 3D Labs было скалярным (как современное железо от nVidia), и они были полностью правы в выборе направления, которому позднее последовали многие производители оборудования. Они были правы и с выбором модели компиляции для «высокоуровневого» языка. Даже D3D в итоге к этому пришёл. Проблема в том, что 3D Labs были правы в неправильное время. И в попытках попасть в будущее преждевременно, в попытках быть готовыми к будущему, они отставили в сторону настоящее. Это выглядит как T&L-функциональность в OpenGL, которая была в нём всегда. За исключением того, что T&L-конвейер OpenGL был полезным и до появления аппаратного T&L, а GLSL был обузой до того как остальной мир догнал его. GLSL — это хороший язык сейчас. Но что было в то время? Он был ужасен. И OpenGL пострадал от этого. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« На подходе к апофеозу» Нажмите, для открытия спойлера | Press to open the spoiler « Я поддерживаю ту точку зрения, что 3D Labs нанесли OpenGL смертельный удар, но последний гвоздь в крышку гроба забил сам ARB. Возможно вы слышали эту историю. Во времена OpenGL 2.1, у OpenGL были большие проблемы. Он тащил за собой огромный груз совместимости. API больше не был простым в использовании. Одну вещь можно было сделать пятью разными способами и непонятно какой из них быстрее. Можно было «изучить» OpenGL по простым руководствам, но при этом вы не изучали тот OpenGL, который даёт настоящую графическую мощь и производительность. ARB решили предпринять ещё одну попытку изобрести OpenGL. Это было как «OpenGL 2.0» от 3D Labs, но лучше, потому что за этой попыткой стоял ARB. Они назвали это «Longs Peak». Что такого плохого в том, чтобы потратить немного времени на улучшение API? Плохо то, что Microsoft оказалась в довольно шатком положении. Это было время перехода на Vista. В Vista Microsoft решили внести давно напрашивающиеся изменения в графические драйверы. Они заставили драйверы обращаться к ОС за виртуализацией графической памяти и многим другим. Можно долго спорить о достоинствах такого подхода, и о том, был ли он вообще возможен, но факт остаётся фактом: Microsoft сделала D3D 10 только для ОС Vista и выше. Даже на поддерживающем D3D железе было невозможно запустить D3D приложение без Висты. Вы возможно помните, что Виста… скажем так, работала не очень хорошо. Итак, у нас была неторопливая ОС, новый API, который работал только на этой ОС, и новое поколение железа, которое нуждалось в этом API и ОС чтобы делать нечто большее, чем просто превосходить предыдущее поколение в производительности. Тем не менее, разработчики могли использовать функциональность уровня D3D 10 через OpenGL. То есть могли бы, если бы ARB не был занят работой над Long Peaks. ARB потратили добрые полтора-два года, работая над улучшением API. Ко времени выхода OpenGL 3.0 переход на Висту закончился, Windows 7 была на подходе, и разработчиков игр больше не заботила функциональность уровня D3D 10. В конце концов, оборудование для D3D 10 прекрасно работало с приложениями на D3D 9. С увеличением темпов портирования с ПК на консоли (или с переходом ПК-разработчиков на консольный рынок), разработчикам всё меньше была нужна функциональность D3D 10. Если бы разработчики получили доступ к этой функциональности даже на Windows XP, развитие OpenGL могло бы получить живительный заряд бодрости. Но ARB упустили эту возможность. А хотите знать что самое ужасное? ARB не смогли изобрести API с нуля несмотря на трату двух драгоценных лет на попытки сделать это. Поэтому они вернули статус-кво, добавив лишь механизм для объявления функциональности устаревшей. В итоге ARB не только упустили ключевые возможности, но и не выполнили ту работу, которая привела их к этому упущению. Это был epic fail по всем направлениям. Такова история о противостоянии OpenGL и Direct3D. История упущенных возможностей, величайшей глупости, умышленного безрассудства и банальных нелепостей. »» Нажмите, для закрытия спойлера | Press to close the spoiler «« Источник: geektimes Кстати, примером удачного противостояния OpenGL vs DirectX можно считать HL2 от Valve, которая под OGL и выглядела лучше, и "жрала ресурсов" меньше, чем D3D9 ( HugoBo-SS). ИМХО, кроме "задержки обновления актуальности" API, причинами которых являются многие факторы ( в том числе попытки ( частенько удачные) "потопления конкурентов" и конкурентных технологий, различными способами), является человеческий фактор ( в плане прикладного профессионализма). Наблюдаемо подобное веяние и сейчас... Даже в большей степени | |
| |
10.09.2016 - 19:18 |
zoog
профи!
Группа: Пользователи Сообщений: 913 Регистрация: 13.09.2007 Пользователь №: 497.976
Респектов: 52
Предупреждений: 0
| Цитата | Quote Видите ли, Windows хотела полностью владеть железом в отличие от ДОС, которая позволяла разработчикам делать всё что угодно. Владение железом необходимо для взаимодействия между приложениями. Но такое взаимодействие — это в точности то, что ненавидят разработчики игр, потому что оно потребляет драгоценные ресурсы, которые они могли бы использовать для всяких крутых вещей. Поправьте меня те, кто сам разбирается, но абстракция от железа - это основная функция ОС, и именно это любят разработчики. Хотя тогда мож действительно приходилось бороться за каждый десяток процентов производительности. | |
| |
|
|