TeraGrid - TeraGrid

TeraGrid
TeraGrid-logo.gif
Тип сайта
Научное сопровождение
Доступно ванглийский
URLwww.teragrid.org
КоммерческийНет
Запущен2004

TeraGrid был электронная наука сеточные вычисления инфраструктура, объединяющая ресурсы на одиннадцати партнерских площадках. Проект стартовал в 2001 году и работал с 2004 по 2011 год.

В TeraGrid интегрированы высокопроизводительные компьютеры, ресурсы и инструменты данных, а также экспериментальное оборудование. Ресурсы включали более петафлопс вычислительных возможностей и более 30 петабайт онлайн-хранилища и архивных данных с быстрым доступом и поиском по сравнению с высокой производительностью компьютерная сеть соединения. Исследователи также могли получить доступ к более чем 100 базам данных по конкретным дисциплинам.

Работа TeraGrid координировалась Группой сетевой инфраструктуры (GIG) на Чикагский университет, работая в партнерстве с сайтами поставщиков ресурсов в США.

История

Соединенные штаты Национальный фонд науки (NSF) обратился к программному директору Ричарду Л. Хильдербрандту с просьбой о создании «распределенного терамасштабного объекта».[1]Проект TeraGrid был запущен в августе 2001 года с финансированием в размере 53 миллионов долларов для четырех сайтов: Национальный центр суперкомпьютерных приложений (NCSA) на Иллинойсский университет в Урбана-Шампейн, то Суперкомпьютерный центр Сан-Диего (SDSC) в Калифорнийский университет в Сан-Диего, то Чикагский университет Аргоннская национальная лаборатория, и Центр перспективных компьютерных исследований (CACR) в Калифорнийский технологический институт в Пасадена, Калифорния.

Дизайн должен был быть расширяемым распределенным открытая система от начала.[2]В октябре 2002 г. Питтсбургский суперкомпьютерный центр (PSC) в Университет Карнеги Меллон и Питтсбургский университет присоединился к TeraGrid в качестве новых крупных партнеров, когда NSF объявил о дополнительном финансировании в размере 35 миллионов долларов. Сеть TeraGrid трансформировалась в рамках проекта ETF из 4-х площадок. сетка к двойному концентратору магистральная сеть с точками подключения в Лос-Анджелес и в помещениях Starlight в Чикаго.

В октябре 2003 года NSF выделил 10 миллионов долларов на добавление четырех сайтов к TeraGrid, а также на создание третьего сетевого концентратора в г. Атланта. Эти новые сайты были Национальная лаборатория Окриджа (ORNL), Университет Пердью, Университет Индианы, а Техасский вычислительный центр (TACC) в Техасский университет в Остине.

Строительство TeraGrid стало возможным также благодаря корпоративному партнерству с Sun Microsystems, IBM, Корпорация Intel, Qwest Communications, Juniper Networks, Myricom, Компания Hewlett-Packard, и Корпорация Oracle.

Строительство TeraGrid было завершено в октябре 2004 года, когда предприятие TeraGrid начало полноценное производство.

Операция

В августе 2005 г. вновь созданный офис NSF киберинфраструктура продлил поддержку еще на пять лет с набором наград в размере 150 миллионов долларов. Он включал 48 миллионов долларов на координацию и поддержку пользователей группы сетевой инфраструктуры в Чикагский университет во главе с Чарли Кэтлетт.[3]Используя высокопроизводительные сетевые соединения, TeraGrid включает высокопроизводительные компьютеры, ресурсы данных и инструменты, а также высокотехнологичные экспериментальные установки по всей территории США. Работу, поддерживаемую проектом, иногда называют электронная наука.В 2006 г. университет Мичигана Школа информации начала изучение TeraGrid.[4]

В мае 2007 года интегрированные ресурсы TeraGrid включали вычислительные возможности более 250 терафлопс и более 30 петабайт (квадриллионов байтов) онлайнового и архивного хранилища данных с быстрым доступом и поиском по высокопроизводительным сетям. Исследователи могли получить доступ к более чем 100 базам данных по конкретным дисциплинам. В конце 2009 года ресурсы TeraGrid выросли до 2 петафлопс вычислительной мощности и более 60 петабайт хранилища. В середине 2009 года NSF продлила срок действия TeraGrid до 2011 года.

Переход на XSEDE

Последующий проект был одобрен в мае 2011 года.[5]В июле 2011 года партнерство из 17 учреждений объявило Экстремальная наука и инженерная среда Discovery (XSEDE). NSF объявил о финансировании проекта XSEDE на пять лет в размере 121 миллиона долларов.[6]XSEDE возглавляет Джон Таунс на Университет Иллинойса с Национальный центр суперкомпьютерных приложений.[6]

Архитектура

Оборудование TeraGrid в UCSD в 2007

Ресурсы TeraGrid интегрируются через Сервис-Ориентированная Архитектура в том, что каждый ресурс предоставляет «услугу», которая определяется с точки зрения интерфейса и работы. Вычислительные ресурсы запускают набор программных пакетов, называемых «Coordinated TeraGrid Software and Services» (CTSS). CTSS предоставляет знакомую пользовательскую среду для всех систем TeraGrid, позволяя ученым более легко переносить код из одной системы в другую. CTSS также предоставляет интегрирующие функции, такие как единый вход в систему, удаленная отправка заданий, поддержка рабочего процесса, инструменты перемещения данных и т. Д. CTSS включает в себя Инструментарий Глобус, Condor, программное обеспечение для распределенного учета и управления учетными записями, программное обеспечение для проверки и валидации, а также набор компиляторов, инструментов программирования и переменные среды.

TeraGrid использует выделенную оптоволоконную магистральную сеть со скоростью 10 Гбит / с с концентраторами в Чикаго, Денвере и Лос-Анджелесе. Все сайты поставщиков ресурсов подключаются к магистральному узлу со скоростью 10 гигабит в секунду. Пользователи получили доступ к объекту через национальные исследовательские сети, такие как Интернет2 Абилин позвоночник и Национальная LambdaRail.

использование

Пользователи TeraGrid в основном прибыли из университетов США. Около 4000 пользователей в более чем 200 университетах. Академические исследователи в Соединенных Штатах могут получить исследовательские или разработка распределения (примерно в «часах процессора») на основе аннотации, описывающей работу, которую необходимо выполнить. Более обширные ассигнования включают предложение, которое рассматривается в ходе ежеквартального процесса экспертной оценки. Все предложения по размещению обрабатываются через веб-сайт TeraGrid. Претенденты выбирают научную дисциплину, которая наиболее точно описывает их работу, и это позволяет составлять отчеты о распределении и использовании TeraGrid по научным дисциплинам. По состоянию на июль 2006 г. научный профиль распределения и использования TeraGrid был:

Выделено (%)Использовал (%)Научная дисциплина
1923Молекулярные биологические науки
1723Физика
1410Астрономические науки
1221Химия
104Исследования материалов
86Химические, тепловые системы
77Атмосферные науки
32Передовые научные вычисления
20.5Науки о Земле
20.5Биологические и критические системы
10.5Науки об океане
10.5Междисциплинарная деятельность
10.5Компьютерные и вычислительные исследования
0.50.25Интегративная биология и нейробиология
0.50.25Механические и структурные системы
0.50.25Математические науки
0.50.25Электрические и коммуникационные системы
0.50.25Системы проектирования и производства
0.50.25Экологическая биология

Каждая из этих категорий дисциплин соответствует определенной программной области Национальный фонд науки.

Начиная с 2006 года TeraGrid предоставляла специализированные сервисы для Science Gateway партнеры, которые обслуживают (как правило, через веб-портал) научные и образовательные сообщества по конкретным дисциплинам. Посредством программы Science Gateways TeraGrid стремится расширить доступ, по крайней мере, на порядок с точки зрения числа ученых, студентов и преподавателей, которые могут использовать TeraGrid.

Поставщики ресурсов

Похожие проекты

Рекомендации

  1. ^ Распределенное устройство терамасштабирования (DTF). Заявка на участие в программе NSF 01-51. Национальный фонд науки. Январь 2001. Получено 23 сентября, 2011.
  2. ^ Чарли Кэтлетт (21 мая 2002 г.). Философия TeraGrid: создание открытого, расширяемого, распределенного объекта TeraScale. 2-й международный симпозиум IEEE / ACM по кластерным вычислениям и сетям. п. 8. Дои:10.1109 / CCGRID.2002.1017101. ISBN  0-7695-1582-7.
  3. ^ «Премия TeraGrid за 150 миллионов долларов знаменует новую эру научных вычислений». Выпуск новостей. Национальный фонд науки. 17 августа 2005 г.. Получено 23 сентября, 2011.
  4. ^ Энн Циммерман; Томас А. Финхольт (август 2008 г.). Отчет об оценочном исследовании TeraGrid, часть 1: Результаты проекта (PDF). Национальный фонд науки. Получено 23 сентября, 2011.
  5. ^ Национальный научный совет (26 мая 2011 г.). «Сводный отчет встречи 10-11 мая 2011 г.» (PDF). Получено 23 сентября, 2011.
  6. ^ а б «Проект XSEDE предоставляет передовую киберинфраструктуру, цифровые услуги и опыт национальным ученым и инженерам». Выпуск новостей. Национальный фонд науки. 25 июля 2011 г.. Получено 23 сентября, 2011.
  7. ^ "Big Red в IU". rt.uits.iu.edu. Получено 9 февраля 2015.
  8. ^ «LONI получает финансирование для исследования TeraGrid» (PDF). Выпуск новостей. Государственный университет Луизианы. 9 сентября 2009 г. Архивировано с оригинал (PDF) 26 июля 2011 г.. Получено 23 сентября, 2011.
  9. ^ S. Matsuokaet et al. (Март 2005 г.). "Японский исследовательский проект вычислительной сети: НАРЕГИ". Труды IEEE. 93 (3): 522–533. Дои:10.1109 / JPROC.2004.842748.CS1 maint: использует параметр авторов (связь)

внешняя ссылка