|
Мини ЭВМ серии компании
Томский политехнический университет
Кафедра ВТ
Реферат на тему:
«Мини ЭВМ серии VAX компании Digital Equipment Corporation (DEC) »
Выполнил студент
Гр. 8В61
Кривцов Н.В.
Проверил преподаватель:
Чередов
Томск 1999
Оглавление
1) Введение………………………………………………………...………….3
2)
Кластерные архитектуры………………………………………………….3
3) "Кластеризация"
как способ обеспечения
высокой готовности системы…………………………………..…………7
4) Базовая модель VAX/VMS кластеров.………………………….………..6
5) Системное программное обеспечение VAX-кластеров…………………9
6) Критерии оценки кластеров Gartner Group………………………………9
7) Кластеры Alpha/OSF компании DEC……………………………………10
8) Серверы Rackmount MicroVAX
3100 и VAX 4000…………………..…11
9)
Сервер VAX 8600………………………………………………………...14
10) Заключение………………………………………………………………17
11) Список используемой литературы……………………………………..18
Введение
Фирма DEC (Digital Equipment Corporation) является одним из ведущих разработчиков высоко
производительных ЭВМ, широко используемых во всех видах человеческой
деятельности. Большое распространение получили модели серверов и рабочих
станций следующих серий: AlphaServer, VAX, DEC. В с воём реферате я более
подробно остановлюсь на рассмотрение семейства VAX.
Семейсто VAX по функциональным
возможностям относится
к Мини ЭВМ. Но так как старшие модели имеют очень высокую производительность их
частично можно отнести и к мэйнфреймaм и к СуперЭВМ. Семейство VAX включает
в себя большое количество моделей, начиная с VAX 11/780 и кончая VAX 10000. Сейчас идёт бурное развитие серверов на основе процессора
Alpha, но по
заверениям вице-призидента Digital Полины Нист (Pauline Nist),
на 1994 год, системы VAX раскупаются более активно,
потому что, новые машины VAX показали
минимальную стоимость транзакции в секунду по сравнению с Alpha-системами в
ходе проведенного Digital тестирования TPC-A. Многие пользователи VAX не
стремятся переходить на новые, более современные системы Alpha, и продолжают использовать дажи самые первые модели VAX, потому
что эти системы зарекомендовали себя как очень надёжные.
Кластерные архитектуры
Двумя
основными проблемами построения вычислительных систем для критически важных
приложений, связанных с обработкой транзакций, управлением базами данных и
обслуживанием телекоммуникаций, являются обеспечение высокой производительности
и продолжительного функционирования систем. Наиболее эффективный способ
достижения заданного уровня производительности - применение параллельных масштабируемых
архитектур. Задача обеспечения продолжительного функционирования системы имеет
три составляющих: надежность, готовность и удобство обслуживания. Все эти три
составляющих предполагают, в первую очередь, борьбу с неисправностями системы,
порождаемыми отказами и сбоями в ее работе. Эта борьба ведется по всем трем направлениям,
которые взаимосвязаны и применяются совместно.
Повышение надежности основано на принципе
предотвращения неисправностей путем снижения интенсивности отказов и сбоев за
счет применения электронных схем и компонентов с высокой и сверхвысокой степенью
интеграции, снижения уровня помех, облегченных режимов работы схем, обеспечение
тепловых режимов их работы, а также за счет совершенствования методов сборки
аппаратуры. Повышение уровня готовности предполагает подавление в определенных
пределах влияния отказов и сбоев на работу системы с помощью средств контроля и
коррекции ошибок, а также средств автоматического восстановления
вычислительного процесса после проявления неисправности, включая аппаратурную и
программную избыточность, на основе которой реализуются различные варианты отказоустойчивых
архитектур. Повышение готовности есть способ борьбы за снижение времени простоя
системы. Основные эксплуатационные характеристики системы существенно зависят
от удобства ее обслуживания, в частности от ремонтопригодности, контроле
пригодности и т.д.
В последние годы в литературе по вычислительной
технике все чаще употребляется термин "системы высокой готовности"
(High Availability Systems). Все типы систем высокой готовности имеют общую
цель - минимизацию времени простоя. Имеется два типа времени простоя компьютера:
плановое и неплановое. Минимизация каждого из них требует различной стратегии и
технологии. Плановое время простоя обычно включает время, принятое
руководством, для проведения работ по модернизации системы и для ее
обслуживания. Неплановое время простоя является результатом отказа системы или
компонента. Хотя системы высокой готовности возможно больше ассоциируются с
минимизацией неплановых простоев, они оказываются также полезными для
уменьшения планового времени простоя.
Существует несколько типов систем высокой
готовности, отличающиеся своими функциональными возможностями и стоимостью.
Следует отметить, что высокая готовность не дается бесплатно. Стоимость систем
высокой готовности на много превышает стоимость обычных систем. Вероятно
поэтому наибольшее распространение в мире получили кластерные системы,
благодаря тому, что они обеспечивают достаточно высокий уровень готовности
систем при относительно низких затратах. Термин "кластеризация" на
сегодня в компьютерной промышленности имеет много различных значений. Строгое
определение могло бы звучать так: "реализация объединения машин,
представляющегося единым целым для операционной системы, системного
программного обеспечения, прикладных программ и пользователей". Машины,
кластеризованные вместе таким способом могут при отказе одного процессора очень
быстро перераспределить работу на другие процессоры внутри кластера. Это,
возможно, наиболее важная задача многих поставщиков систем высокой готовности.
В настоящее время широкое
распространение получила также технология параллельных баз данных. Эта
технология позволяет множеству процессоров разделять доступ к единственной базе
данных. Распределение заданий по множеству процессорных ресурсов и параллельное
их выполнение позволяет достичь более высокого уровня пропускной способности
транзакций, поддерживать большее число одновременно работающих пользователей и
ускорить выполнение сложных запросов. Существуют три различных типа
архитектуры, которые поддерживают параллельные базы данных:
·
Симметричная
многопроцессорная архитектура с общей памятью (Shared Memory SMP Architecture).
Эта архитектура поддерживает единую базу данных, работающую на
многопроцессорном сервере под управлением одной операционной системы.
Увеличение производительности таких систем обеспечивается наращиванием числа
процессоров, устройств оперативной и внешней памяти.
·
Архитектура
с общими (разделяемыми) дисками (Shared Disk Architecture). Это типичный случай
построения кластерной системы. Эта архитектура поддерживает единую базу данных
при работе с несколькими компьютерами, объединенными в кластер (обычно такие
компьютеры называются узлами кластера), каждый из которых работает под
управлением своей копии операционной системы. В таких системах все узлы
разделяют доступ к общим дискам, на которых собственно и располагается единая
база данных. Производительность таких систем может увеличиваться как путем
наращивания числа процессоров и объемов оперативной памяти в каждом узле
кластера, так и посредством увеличения количества самих узлов.
·
Архитектура
без разделения ресурсов (Shared Nothing Architecture). Как и в архитектуре с
общими дисками, в этой архитектуре поддерживается единый образ базы данных при
работе с несколькими компьютерами, работающими под управлением своих копий
операционной системы. Однако в этой архитектуре каждый узел системы имеет
собственную оперативную память и собственные диски, которые не разделяются
между отдельными узлами системы. Практически в таких системах разделяется
только общий коммуникационный канал между узлами системы. Производительность
таких систем может увеличиваться путем добавления процессоров, объемов
оперативной и внешней (дисковой) памяти в каждом узле, а также путем наращивания
количества таких узлов.
Таким образом, среда для работы параллельной базы
данных обладает двумя важными свойствами: высокой готовностью и высокой
производительностью. В случае кластерной организации несколько компьютеров или
узлов кластера работают с единой базой данных. В случае отказа одного из таких
узлов, оставшиеся узлы могут взять на себя задания, выполнявшиеся на отказавшем
узле, не останавливая общий процесс работы с базой данных. Поскольку логически
в каждом узле системы имеется образ базы данных, доступ к базе данных будет
обеспечиваться до тех пор, пока в системе имеется по крайней мере один
исправный узел. Производительность системы легко масштабируется, т.е.
добавление дополнительных процессоров, объемов оперативной и дисковой памяти, и
новых узлов в системе может выполняться в любое время, когда это действительно
требуется.
Параллельные базы данных находят широкое применение
в системах обработки транзакций в режиме on-line, системах поддержки принятия решений
и часто используются при работе с критически важными для работы предприятий и
организаций приложениями, которые эксплуатируются по 24 часа в сутки.
Систему с двумя процессорами, один
из которых - главный (master) - может работать в режиме ядра, а другой -
подчиненный (slave) - только в режиме задачи, впервые реализовал на машинах
типа VAX 11/780. Эта система, реализованная вначале на двух машинах, получила
свое дальнейшее развитие в системах с одним главным и несколькими подчиненными
процессорами. Главный процессор несет ответственность за обработку всех обращений
к операционной системе и всех прерываний. Подчиненные процессоры ведают
выполнением процессов в режиме задачи и информируют главный процессор о всех
производимых обращениях к системным функциям.
Истинно кластерные системы, такие
как VAXclasters компании DEC или кластер LifeKeeper Claster отделения NCR
компании AT&T, являются примерами намного более сложного управления по
сравнению с простыми процедурами начальной установки при переключении на
резерв, и полностью используют все доступные процессоры. Однако организация
таких систем влечет за собой и большие накладные расходы, которые увеличиваются
с ростом числа узлов в кластере.
Компания DEC была первым поставщиком
Oracle Parallel Server на VMS-кластерах в 1991 году. После появления версии Oracle
7, у компании Oracle появился интерес к концепции базы данных на
UNIX-кластерах, и в 1991 году она опубликовала программный интерфейс приложений
(API) для своего менеджера блокировок. Публикация этого API означала открытое
приглашение всех поставщиков вычислительных систем для организации поддержки на
их платформах Oracle 7 Parallel Server. В результате основные поставщики
UNIX-кластеров в настоящее время поддерживают этот продукт.
"Кластеризация"
как способ обеспечения высокой готовности системы. Базовая модель VAX/VMS кластеров.
Компания DEC первой анонсировала концепцию
кластерной системы в 1983 году, определив ее как группу объединенных между
собой вычислительных машин, представляющих собой единый узел обработки информации.
По существу VAX-кластер представляет собой слабосвязанную многомашинную систему
с общей внешней памятью, обеспечивающую единый механизм управления и администрирования.
Рис. 1
VAX-кластер
обладает следующими свойствами:
Разделение ресурсов. Компьютеры VAX в кластере
могут разделять доступ к общим ленточным и дисковым накопителям. Все компьютеры
VAX в кластере могут обращаться к отдельным файлам данных как к локальным.
Высокая готовность. Если происходит отказ
одного из VAX-компьютеров, задания его пользователей автоматически могут быть
перенесены на другой компьютер кластера. Если в системе имеется несколько
контроллеров HSC и один из них отказывает, другие контроллеры HSC автоматически
подхватывают его работу.
Высокая пропускная
способность.
Ряд прикладных систем могут пользоваться возможностью параллельного выполнения
заданий на нескольких компьютерах кластера.
Удобство обслуживания
системы.
Общие базы данных могут обслуживаться с единственного места. Прикладные
программы могут инсталлироваться только однажды на общих дисках кластера и
разделяться между всеми компьютерами кластера.
Расширяемость. Увеличение вычислительной
мощности кластера достигается подключением к нему дополнительных
VAX-компьютеров. Дополнительные накопители на магнитных дисках и магнитных
лентах становятся доступными для всех компьютеров, входящих в кластер.
Работа
VAX-кластера определяется двумя главными компонентами. Первым компонентом
является высокоскоростной механизм связи, а вторым - системное программное
обеспечение, которое обеспечивает клиентам прозрачный доступ к системному
сервису. Физически связи внутри кластера реализуются с помощью трех различных
шинных технологий с различными характеристиками производительности.
Шина связи компьютеров CI (Computer
Interconnect) работает со скоростью 70 Мбит/с и используется для соединения
компьютеров VAX и контроллеров HSC с помощью коммутатора Star Coupler. Каждая
связь CI имеет двойные избыточные линии, две для передачи и две для приема, используя
базовую технологию CSMA, которая для устранения коллизий использует
специфические для данного узла задержки. Максимальная длина связи CI составляет
45 метров. Звездообразный коммутатор Star Coupler может поддерживать
подключение до 32 шин CI, каждая из которых предназначена для подсоединения
компьютера VAX или контроллера HSC. Контроллер HSC представляет собой
интеллектуальное устройство, которое управляет работой дисковых и ленточных
накопителей. Компьютеры VAX могут объединяться в кластер также посредством
локальной сети Ethernet, используя NI - Network Interconnect (так называемые
локальные VAX-кластеры), однако производительность таких систем сравнительно
низкая из-за необходимости делить пропускную способность сети Ethernet между
компьютерами кластера и другими клиентами сети.
В начале 1992 года компания DEC
анонсировала поддержку построения кластера на основе шины DSSI (Digital Storage
System Interconnect). На шине DSSI могут объединяться до четырех компьютеров
VAX нижнего и среднего класса. Каждый компьютер может поддерживать несколько
адаптеров DSSI. Отдельная шина DSSI работает со скоростью 4 Мбайт/с (32 Мбит/с)
и допускает подсоединение до 8 устройств. Поддерживаются следующие типы
устройств: системный адаптер DSSI, дисковый контроллер серии RF и ленточный
контроллер серии TF. DSSI ограничивает расстояние между узлами в кластере 25
метрами.
Во всем мире насчитывалось более
20000 установок VAX-кластеров. Почти все из них построены с использованием
шинного интерфейса CI.
Системное
программное обеспечение VAX-кластеров
Для
гарантии правильного взаимодействия процессоров друг с другом при обращениях к
общим ресурсам, таким, например, как диски, компания DEC использует
распределенный менеджер блокировок DLM (Distributed Lock Manager). Очень важной
функцией DLM является обеспечение когерентного состояния дисковых кэшей для
операций ввода/вывода операционной системы и прикладных программ. Например, в
приложениях реляционных СУБД DLM несет ответственность за поддержание
согласованного состояния между буферами базы данных на различных компьютерах
кластера.
Задача
поддержания когерентности кэш-памяти ввода/вывода между процессорами в кластере
подобна задаче поддержания когерентности кэш-памяти в сильно связанной
многопроцессорной системе, построенной на базе некоторой шины. Блоки данных
могут одновременно появляться в нескольких кэшах и если один процессор
модифицирует одну из этих копий, другие существующие копии не отражают уже
текущее состояние блока данных. Концепция захвата блока (владения блоком)
является одним из способов управления такими ситуациями. Прежде чем блок может
быть модифицирован должно быть обеспечено владение блоком.
Работа
с DLM связана со значительными накладными расходами. Накладные расходы в среде
VAX/VMS могут быть большими, требующими передачи до шести сообщений по шине CI
для одной операции ввода/вывода. Накладные расходы могут достигать величины 20%
для каждого процессора в кластере. Поставщики баз данных при использовании
двухпроцессорного VAX-кластера обычно рассчитывают получить увеличение пропускной
способности в 1.8 раза для транзакций выбора и в 1.3 раза для транзакций
обновления базы данных.
Критерии оценки кластеров Gartner Group
Различные
группы промышленных аналитиков считают VAX-кластеры образцом, по которому
должны реализовываться другие кластерные системы, и примером свойств, которыми
они должны обладать. VAX-кластеры являются очень надежными и
высокопроизводительными вычислительными системами, основанными на
миникомпьютерах. Хотя они базируются на патентованной операционной среде (VMS),
опыт их эксплуатации показал, что основные свойства, которыми они обладают
очень хорошо соответствуют потребностям коммерческих учреждений.
В настоящее время на смену
VAX-кластерам приходят UNIX-кластеры. При этом VAX-кластеры предлагают
проверенный набор решений, который устанавливает критерии для оценки подобных
систем. Правда ещё UNIX-кластеры все еще отстают от VAX-кластеров по
функциональным возможностям. Одно из наибольших отличий связано с реализацией
восстановления клиентов в случае отказа. В VAX-кластерах такое восстановление
осуществляется средствами программного обеспечения самого VAX-кластера. В
UNIX-кластерах эти возможности обычно реализуются отдельным уровнем
программного обеспечения, называемым монитором транзакций. В UNIX-кластерах
мониторы транзакций кроме того используются также для целей балансировки нагрузки,
в то время как VAX-кластеры имеют встроенную в программное обеспечение утилиту
балансировки загрузки.
Ожидается,
что UNIX-кластеры подойдут и обгонят по функциональным возможностям
VAX-кластеры в период 1996-1997 года.
Кластеры Alpha/OSF компании DEC
Стратегическая линия новых
продуктов компании DEC основана на новой аппаратной платформе Alpha AXP,
которая поддерживает несколько операционных систем (в их числе OpenVMS, DEC
OSF/1 и Windows NT). Компания объявила о создании UNIX-кластеров на своей новой
платформе Alpha/OSF в 1993 году. Главной задачей при этом считается достижение
тех же функциональных возможностей, которыми обладали VAX/VMS-кластеры.
В основу нового кластерного
решения положен высокоскоростной коммутатор GigaSwitch, максимальная пропускная
способность которого достигает 3.6 Гбайт/с. GigaSwitch представляет собой
протокольно независимое устройство коммутации пакетов, которое может иметь 36
портов и поддерживать протоколы Ethernet, FDDI и ATM. Поддержка различных
протоколов реализована с помощью набора специальных сменных карт.
Предполагается, что к GigaSwitch помимо рабочих станций Alpha смогут подключаться
и UNIX-станции других производителей.
В апреле 1994 года компания
DEC анонсировала продукт под названием Integrated Cluster Server, который по
своим функциональным характеристикам должен соответствовать стандарту
VAX/VMS-кластеров. Основу этого решения составляет новая технология так
называемой рефлективной памяти, имеющейся в каждом узле кластера. Устройства
рефлективной памяти разных узлов кластера объединяются с помощью
высокоскоростных каналов на основе интерфейса PCI. Обмен информацией между
узлами типа "память-память" по этим каналам может производиться со
скоростью 100 Мбайт/с, что на порядок превышает скорость обмена по обычным каналам
ввода/вывода. Появление этого продукта ожидается в конце 1995 года.
Серверы Rackmount MicroVAX 3100 и VAX 4000
Характеристики:
MicroVAX 3100 Моделей 88 и 98 и VAX 4000 Модели 108
выпускаются как стоечные системы
Системы используют 8.75 дюймовые размеры стойки в
стандартных 19-дюймовых широких стойках ANSI/EIA и вложениях кабинета и
предлагают те же самые особенности как настольные серверы.
Описание:
Rackmount MicroVAX 3100 комплектуется
64 МБ или 128 МБ памяти, 1.05 GB диск, приводом CD-ROM, операционной системой
OpenVMS, и программное обеспечение NAS 200.
Rackmount VAX 4000 Модели 108
предлагается в основно как сервер, который
имеет 64 МБ или 128 МБ оперативной памяти, 2.1 GB DSSI винчестером со
встроеным DSSI-to-SCSI адаптером, 2.1 GB SCSI диск, привод CD-ROM, операционная
система OpenVMS, и програмное обеспечение NAS 200.
Рис. 2
Особенности
·
Корпус
выполнен в виде MiniTower (Рис. 2)
·
Шесть
встроеных слотов до 19.2 GB дискового пространства
·
Производительность16
и 38 VUP
·
Память 64 МБ
(Модели 88, 98, и 108) и 128 МБ (Модели 98 и 108)
·
Способность(вместимость)
памяти 512 МБ, использующих SIMM память
·
Трех-летняя
гарантия аппаратных средств ЭВМ
·
OpenVMS V5.
5-2 совместимый
В Таблице 1 приведены технические
характеристики MicroVAX 3100 Моделей 88 и 98, и VAX 4000 Модели 108.
Таблица 1. Rackmount MicroVAX 3100 Model 88 Rackmount MicroVAX 3100 Model 98 Rackmount VAX 4000 Model 108 Количество процессоров Один Один Один Частота процессора 62.5 MHz 100 MHz 100 MHz Разер Кэш-памяти 10 KB/128 KB 10 KB/512 KB 10 KB/512 KB Максимальная память 512 MB 512 MB 512 MB Дисковые возможности Внутренние 19.2 GB 19.2 GB 19.2 GB Внешние 60.2 GB 60.2 GB 334.635.4 GB I/O bus (maximum) 2 SCSI/Ethernet 2 SCSI/Ethernet 1 SCSI/2 DSSI/ Ethernet/Qbus поддержка кластеров OpenVMS Ethernet Ethernet Ethernet, DSSI, FDDI Производительность TPS 110 (estimated) 200 (estimated) 215 (estimated) VUPs * 16 38 38 Програмное обеспечение Операционная система OpenVMS OpenVMS OpenVMS Поддержка сети NAS 200 NAS 200 NAS 200 Параметры окружающей среды при работе Температура 10° to 40° C (50° to 104° F) 10° to 40° C (50° to 104° F) 10° to 40° C (50° to 104° F) Относительная влажность 10% to 90% 10% to 90% 10% to 90% Максиальная высота над уровнем моря (3048 meters) (3048 meters) (3048 meters) Параметры окружающей среды в отключенном состоянии Температура -40° to 66° C (-40° to 151° F) -40° to 66° C (-40° to 151° F) -40° to 66° C (-40° to 151° F) Относительная влажность 10% to 95% 10% to 95% 10% to 95% Максиальная высота над уровнем моря (12,192 meters) (12,192 meters) (12,192 meters) Енергопотребление Входное напряжение (номинальное) 100 to 120 Вольт 220 to 240 Вольт 100 to 120 Вольт 220 to 240 Вольт 100 to 120 Вольт 220 to 240 Вольт Допыстимые частоты 47 to 63 Hz 47 to 63 Hz 47 to 63 Hz Phases Single Single Single Surge current @120/240 VAC 40/80 amps 40/80 amps 40/80 amps Physical characteristics Height 8.75 inches 8.75 inches 8.75 inches Width 19 inches 19 inches 19 inches Depth 27.2 inches 27.2 inches 27.2 inches Weight 45 pounds 45 pounds 45 pounds Enclosure Rackmount Rackmount Rackmount
* За единицы измерения производительности VUPs принята производительность ЭВ VAX
модели11/780. Этот термин использовался в течение 1980-ых годов.
*
Другое определение MIPS связано с очень популярным когда-то компьютером
VAX 11/780 компании DEC. Именно этот компьютер был принят в качестве эталона для
сравнения производительности различных машин. Считалось, что производительность
VAX 11/780 равна 1MIPS (одному миллиону команд в секунду).
Сервер VAX 8600
Таблица 2. Относительная производительность к VAX-11/780 (1 MIP) 4.2 Технология ECL Gate Array Максимальная память 256 MB Тип ECC Способность Хранения Информации Максимальное кол-во контроллеров дисков 8 Максимальная ёмкость диска 20 GB VAXcluster I/O Servers Up to 15 Возможности шины I/O скорость 20.0 MB/s Тип шины 7 UNIBUS 4 MASSBUS Комуникации Сетевая поддержка По желанию Сетевые адаптеры До 2 шт. Max. Communications Lines (async) 96 Расширение Поддержка системы VAXcluster По желанию Поддержка Local Area VAXcluster По желанию Одернизация центрального процессора Upgrade to 8650 Операционная система VMS , ULTRIX-32 Особенности процессора Ускоритель вычислений с плавающей точкой По желанию Типы данных F, D, G, H Интерфейс Стандартный Размер Кэш-памяти 16 KB Время доступа Кэш-памяти 80 ns
Из Таблицы 1 и Таблицы 2 можно
сделать выводы об увеличении производительности более старших поколений Мини
ЭВМ серии VAX. Эволюция полупроводниковых технологий, используемых при
изготовлении ЭВМ серии VAX показана в Таблице3.
Таблица3. CMOS Процессор Размер (микрон) Пример системы SPEC mark89 SPEC fp92 SPEC int92 SPEC fp95 SPEC int95 cmos1 1986 2.0 VAX 6000-210 2.9 cmos2 1988 1.5 VAX 6000-410 7.1 cmos3 1990 1.0 VAX 6000-510 13.2 cmos4 1992 0.7 VAX 7000-610 46.6 45.0 DEC 7000-610 175.6 176.0 103.1 cmos5 1994 0.5 AlphaServer 8400 5/300 512.9 341.4 12.4 7.43 cmos6 1996 0.35 EV6 Estimated 50e 30e
Из этой таблицы видна эволюция в
производительности процессоров семейства VAX и изменение
в технологической базе полупроводников, используемой для построения
интегральной схемы. За десять лет произошёл переход от 2 мк технологии до 0.35
мк.
Заключение
Если рассматривать производительность ЭВМ корпорации
DEC то
можно со 100% увереностью сказать что на сегодняшний день лидирующее положение
занимают ситемы AlphaServer,
затем идут системы VAX, и потом уже DEC system. Многие модели VAX (такие как 11/780) уже безнадёжно устарели, и
их используют как бар (Рисунок 3). Концепция фиры DEC сейчас направлена в сторону
полного перехода на семейства ЭВМ с процессором Alpha и как сообщил Тим Берд,
директор информационной службы из Paws Inc. (Манси, шт. Индиана):
"Продолжение разработки VAX-систем делает честь DEC, но мы собираемся
полностью перейти на Alpha. Это более быстродействующий процессор, и за ним -
будущее DEC". Поэтому можно предположить, что системы VAX ещё
продержатся на рынке несколько лет, и потом будут безвозвратно вытеснены новыми
технологиями.
Рис. 3
Список литературы:
1) Сервер новых информационных
технологий www.citforum.ru
2) Официальный сервер
корпорации DEC www.digital.com
3) Поисковая система на www.compaq.com
4) Сервер новостей www.infoart.ru
5) Сайт продукции DEC http://www.digital.com/info/vax/products.html
6) Техническая характеристика
серверов Alpha и VAX http://wint.decsy.ru/alphaservers/digital/v0000169.htm
|
|
|