Документ взят из кэша поисковой машины. Адрес
оригинального документа
: http://msu-intel.parallel.ru/?q=node/69
Дата изменения: Sat Apr 9 22:25:42 2016 Дата индексирования: Sat Apr 9 22:25:42 2016 Кодировка: UTF-8 |
здесь находится исходный план курса
Суперкомпьютеры в компьютерном мире. Примеры современных суперкомпьютеров, Top500, производительность, объемы оперативной и внешней памяти, энергопотребление, размещение. | Intel в Топ500 и Топ50, современные системы на базе Intel |
Вычислительно сложные задачи, примеры, разнообразие задач в различных прикладных областях. | |
Развитие элементной базы компьютеров и их архитектуры, их влияние на увеличение производительности компьютеров. | |
Последовательная, параллельная и конвейерная обработка данных. Ускорение выполнения программ. | |
Пиковая и реальная производительность компьютеров. | |
История появления параллелизма и конвейерности в архитектуре компьютеров. | История появления параллелизма в компьютерах/процессорах Intel (от 8086 через i860, Intel Paragon и до наших дней) |
Иерархия памяти в компьютерах как средство повышения скорости выполнения программ, локальность вычислений и локальность использования данных, кэш-память. | Иерархия памяти - вся линейка процессоров Intel |
Закон Амдала и его следствия, суперлинейное ускорение. | |
Последовательные и параллельные алгоритмы. Проблема отображения программ и алгоритмов на архитектуру параллельных вычислительных систем. Этапы решения задач на параллельных вычислительных системах. |
Компьютеры с общей и распределенной памятью, принципы организации, сходства и различия, достоинства и недостатки. Соответствие двум основным задачам параллельных вычислений. | |
Архитектуры SMP, NUMA, ccNUMA. |
SMP-компьютеры - многоядерные процессоры Intel (до Nehalem c отдельными контроллерами памяти) SMP-компьютеры - HP SuperDome, SGI Altix |
Компьютеры с общей памятью. Коммутация процессоров и модулей памяти, степень неоднородности доступа к памяти. Причины снижения производительности на реальных программах. | |
Компьютеры с распределенной памятью. Вычислительные узлы и коммуникационная сеть, топология связи между узлами, свойства топологий. Вычислительные кластеры: узлы, коммуникационные технологии, программное обеспечение, латентность и пропускная способность, вспомогательные сети. Причины снижения производительности на реальных программах. |
Intel Interconnect СКЦ МГУ: <Чебышев>, <Ломоносов> |
Скалярные и векторные команды. Скалярные, конвейерные и векторные функциональные устройства. Соотношение между понятиями двух блоков: "функциональное устройство, команда, обработка, компьютер" и "скалярный, векторный, конвейерный". | Векторизация - расширения MMX, SSE |
Векторно-конвейерные компьютеры. Структура памяти и регистров, функциональные устройства, различные уровни параллельной и конвейерной обработки. Векторизация программ. Причины снижения производительности на реальных программах. | Конвейерные ФУ - процессоры Intel |
Архитектуры с параллелизмом на уровне машинных команд, VLIW, суперскалярность, EPIC. Мультитредовость/гипертрейдинг. |
VLIW, EPIC - Itanium2. Гипертрединг в процессорах Intel. Суперскалярность - почти все процессоры Intel. |
Неоднородные распределенные вычислительные системы и среды, понятие метакомпьютинга. Отличительные свойства вычислительных сред. Понятие GRID, базовые компоненты и сервисы, существующие проекты GRID-сегментов. | |
Компьютеры с реконфигурируемой архитектурой, FPGA, концепция data-flow компьютеров. | |
Современные микропроцессоры, особенности архитектуры, иерархия памяти. Эффективность выполнения программ. |
Развитие всей линейки процессоров Intel x86 Larabee |
Схемы вычислительного процесса для параллельных программ: SPMD, Мастер/Рабочие. Процессы и нити, адресное пространство, синхронизация, обмен данными. | |
Традиционные последовательные языки и распараллеливающие компиляторы, проблема выделения потенциального параллелизма последовательных программ. Спецкомментарии и директивы компилятору. | Intel C,FORTRAN Compilers |
Расширения существующих языков программирования. Специальные языки параллельного программирования. Программирование с использованием библиотек и интерфейсов передачи сообщений. | Технологии параллельного программирования - язык Ct. |
Параллельные предметные библиотеки. Специализированные пакеты и программные комплексы высокого уровня. | Intel MKL, TBB, IPP |
Технологии параллельного программирования: эффективность, продуктивность, переносимость. | |
Технологии параллельного программирования MPI, OpenMP, Linda: структура параллельной программы, базовые конструкции, достоинства и недостатки, связь с архитектурой компьютера. |
Intel MPI Intel OpenMP |
Вспомогательный инструментарий для создания эффективных параллельных программ. |
Инструментарий Интел для разработки и оптимизации параллельных программ: Intel Trace Analyzer And Collector; VTune |
Универсальность и специализация компьютеров, производительность спецпроцессоров.Закон Мура. Методы оценки производительности. Введение единого числового параметра, Mflops, MIPS. Пиковая и реальная производительность компьютеров. Тест Linpack и его варианты. Наборы взаимодополняющих тестовых программ, STREAM, NPB, HPCC, APEX. | Гордон Мур - экспредседатель правления Intel http://www.intel.com/pressroom/kits/bios/moore.htm |
Графовые модели программ. Граф управления и информационный граф программы, информационная и операционная история реализации программ. Взаимосвязь графовых моделей. Граф алгоритма как компактная параметрическая форма представления информационной истории. Информационная независимость операций и возможность их параллельного исполнения. Построение графа алгоритма для линейного класса программ. Длина критического пути графа алгоритма как мера степени параллельности. Ярусно-параллельная форма графа алгоритма, высота, ширина, каноническая ЯПФ. Виды параллелизма: конечный, массовый, координатный, скошенный. Эквивалентные преобразования программ, элементарные преобразования циклов. Зависимость степени параллелизма программ от формы записи алгоритма и выбора структур данных. |