Множення матриць при стрічковій схемі розділення даних. Виділення інформаційних залежностей. Алгоритм Фокса та алгоритм Кэннона множення матриць при блоковому розділенні даних. Масштабування і розподіл підзадач по процесорах. Визначення підзадач.
Дослідження існуючих математичних моделей щодо переміщення рідкого середовища з рухомими границями. Визначення основних найбільш перспективних напрямків розвитку паралельних асинхронних і мультисіткових методів і програмних засобів для їх реалізації.
Можливі варіанти побудови структур процесорів вейвлет перетворень сигналів для реалізації методів компресії зображень різної фізичної природи. Розробка сучасних структур вейвлет-процесорів. Подальші рівні досліджень методів високоякісної компресії даних.
Побудова методу послідовної маршрутизації на паралельних обчислювальних структурах. Розробка системоаналогового методу маршрутизації на графах. Створення системоаналогового алгоритму багатошляхової маршрутизації на паралельних обчислювальних структурах.
Комп’ютери із NUMA архітектурою. Класифікація паралельних комп’ютерів і систем. Способи паралельної обробки. Закони Амдала та методи декомпозиції. Принципи побудови паралельних алгоритмів. Рекурсивна, спекулятивна, дослідницька та гібридна декомпозиція.
Розробка моделі організації високопродуктивних паралельно-ієрархічних обчислювальних процесів, їх алгоритмічне та програмне забезпечення на базі GPU-орієнтованої апаратної платформи. Основні показники швидкодії запропонованих комп'ютерних засобів.
Особливості класифікації зображень профілю лазерного променя в паралельно-ієрархічних мережах. Методика удосконалення структурної організації та моделей паралельно-ієрархічних мереж на основі формування нормуючого рівняння з контрольованим навчанням.
Проблема высокопроизводительных вычислений. Классификация параллельных вычислительных систем. Параллелизм, его методы и средства реализации, недостатки и ограничения. Специфичность параллельных вычислений и законы, отрицающие их практическое применение.
- 18309. Параллельная архитектура
Основные признаки Parallel Vector Process, параллельной архитектуры с векторными процессорами. Программирование на PVP-системах. Развитие микроэлектронных технологий и суперкомпьютеров с векторно-конвейерной архитектурой. Способности оперативной памяти.
Ознакомление со структурой параллельного выполнения транзакций. Определение сущности процесса сериализации транзакций. Изучение и характеристика видов конфликтов между транзакциями. Рассмотрение двухфазного протокола захватов объектов базы данных.
MPI: основные понятия и определения. Операции передачи данных. Организация неблокирующих обменов данными между процессорами. Объявление производных типов и их удаление. Управление группами и коммуникаторами. Характеристика среды выполнения MPI-программ.
MPI - интерфейс передачи сообщений - основные понятия и определения. Инициализация и завершение МРІ программ. Определение количества и ранга процессов и времени выполнение МРІ программы. Прием и передача сообщений. Коллективные операции передачи данных.
Управление группами процессов и коммуникаторами: виртуальные топологии, декартовы решетки, топологии типа граф. Разработка параллельных программ с использованием интерфейса для передачи данных на языке Fortran. Дополнительные возможности стандарта MPI-2.
Описание элементов языка Фортран GNS, ориентированного на программирование параллельных вычислительных процессов методом передачи сообщений. Идентификация отправителей и получателей. Структура элементов списка передаваемых сообщений; конструкция выбора.
Реализация последовательного алгоритма умножения матрицы на вектор. Принципы распараллеливания, определение подзадач. Выделение информационных зависимостей. Распределение подзадач по процессорам. Инициализация и завершение параллельной программы.
Создание виртуальной декартовой топологии. Определение размеров объектов, ввод исходных данных. Завершение процесса вычислений. Распределение данных между процессами. Начало реализации параллельного алгоритма матричного умножения. Рассылка блоков матрицы.
Реализация последовательного алгоритма Флойда. Выделение информационных зависимостей. Масштабирование и распределение подзадач по процессорам. Инициализация параллельной программы. Сбор результирующей матрицы. Проведение вычислительных экспериментов.
Реализация последовательного алгоритма Гаусса–Зейделя решения задачи Дирихле. Выделение информационных зависимостей. Масштабирование и распределение подзадач по процессорам. Инициализация параллельной программы. Проведение вычислительных экспериментов.
- 18319. Параллельные вычисления
Организация параллельных вычислений на транспьютерной сети. Основные типы данных и функций языка Параллельный Си, языка конфигурации. Параллельные вычисления на кластерах с использованием стандарта MPI и пакета MPICH. Решение матричных задач на кластере.
Классификация параллельных архитектур по Флинну. Суперскалярные и VLIW машины, выдающие несколько команд за один такт. Архитектура компьютера в классификации Скилликорна. Основные направления и этапы развития параллельных вычислительных технологий.
- 18321. Параллельные запросы
Изучение особенностей продажами товаров через Web. Многопоточная программа MySQL, SQL-инструкции и СУБД механизм блокировки. Транзакции и параллельные вычисления. Правила выполнения и отмены транзакции, ее атомарность. Уровни изоляции в стандарте SQL.
Понятие компьютеров параллельного действия, их сущность и функции. Слабо и сильно связанные процессоры, принципы разработки систем этих форм параллелизма. Способы увеличения производительности микросхемы, реализация параллелизма на уровне команд.
Мультипроцессоры и мультикомпьютеры. Схема мультикомпьютера, недостатки мультипроцессоров. Топология коммуникационной сети, пропускная способность сечения. Процессоры с массовым параллелизмом. Механизм обработки запроса. Пути повышения производительности.
Особенности взаимодействия процессоров в параллельной компьютерной системе, классификация ее видов. Использование единого адресного пространства в мультипроцессорном компьютере. Программная структура для обмена данных. Уровни реализации общей памяти.
Способы повышения быстродействия компьютера на уровне микросхемы. Сильно связанные и слабо связанные процессоры. Внутрипроцессорный параллелизм. Принцип многопоточности. Гиперпоточность Intel. Логическая схема DVD-плеера. Прогнозирование в среде TriMedia.
Мультипроцессоры и мультикомпьютеры, их недостатки. Топология коммуникационной сети. Пропускная способность сечения. Процессоры с массовым параллелизмом (Massively Parallel Processors, MPP). Размещение компонентов Red Storm, кластерные вычисления.
Исследование различий стратегий мультипроцессоров и мультикомпьютеров. Принципы организации обмена данными. Рассмотрение уровней реализации общей памяти. Классификация параллельных компьютерных систем. Изучение моделей состоятельности и семантики памяти.
Разработка мультипроцессорных систем и мультикомпьютеров путём объединения многочисленных процессоров и обеспечения их эффективного взаимодействия. Уровни параллелизма, внутрипроцессорный и параллелизм на уровне команд. Основные подходы к защите данных.
Общая оценка показателей ускорения и эффективности. Метод Фокса, схема информационного взаимодействия. Функция Create Grid Communicators. Метод Кэннона, перераспределение блоков исходных матриц. Масштабирование и распределение подзадач по процессорам.
Решение дифференциальных уравнений в частных производных с использованием высокопроизводительных вычислительных систем. Организация параллельных вычислений задачи Дирихле для систем с общей памятью. Балансировка и оптимизация нагрузки процессоров.
