SLinCA@Home

SLinCA@Home (Scaling Laws in Cluster Aggregation - Масштабно-інваріантні закономірності в агрегації кластерів) — це науково-дослідний проект, який використовує комп'ютери, з'єднані глобальною мережею Інтернет, для досліджень в галузі матеріалознавства.

SLinCA@Home
Тип Грід, розподілені обчислення, волонтерські обчислення
Розробник ІМФ НАН України
Перший випуск 14 вересня 2010
Платформа BOINC, SZTAKI Desktop Grid, XtremWeb-HEP, OurGrid
Операційна система Linux, Windows
Стан розробки Альфа
Вебсайт dg.imp.kiev.ua

Вступ

SLinCA@Home заснований групою наукових співробітників з Інституту металофізики ім. Г.В. Курдюмова (ІМФ) Національної академії наук України (НАН України), Київ, Україна. Цей проект використовує програмне забезпечення Berkeley Open Infrastructure for Network Computing (BOINC), платформу SZTAKI Desktop Grid, та API для розподілених обчислень (DC-API) від SZTAKI. SLinCA@Home включає декілька наукових програм присвячених пошуку масштабно-інваріантних закономірностей в експериментальних даних і результатах комп'ютерного моделювання.

Історія

Проект SLinCA@Home раніше був запущений в січні 2009 р. як частина проекту EDGeS Сьомої Рамкової Програми (Seventh Framework Programme - FP7) Європейського Союзу (ЄС) для фінансування наукових досліджень і технологічного розвитку в Європі. У 2009-2010 він використовував потужності локального "Настільного Гріда" (НГ) ІМФ, але із грудня 2010 року використовує інфраструктуру розподілених обчислень, яка надається волонтерами для вирішення складних обчислювальних завдань, пов'язаних з пошуком масштабно-інваріантних закономірностей в експериментально отриманих та модельованих наукових даних. Зараз проект управляється групою вчених з ІМФ НАН України у тісній співпраці з партнерами з IDGF та Distributed Computing team 'Ukraine'. З червня 2010 SLinCA@Home працює в рамках проекту DEGISCO FP7 ЄС.

Поточний статус

SLinCA@Home - продуктивність за 4 тижні, станом на 16 березня 2011.

Зараз SLinCA@Home має статус альфа-версії, що пов'язано з поступовою модернізацією серверної і клієнтської частин.

За неофіційною статистикою BOINCstats (станом на 16 березня 2011) більш ніж 2000 волонтерів з 39 країн взяли участь у проекті, зробивши його другим за популярністю BOINC проектом в Україні (після проекту Magnetism@Home, який зараз не активний).[1] Близько 700 активних користувачів забезпечують приблизно 0.5-1.5 TFLOPS[2] обчислювальної потужності, яка дозволила б SLinCA@Home потрапити в найкращу 20-ку списку TOP500 суперкомп'ютерів ... станом на червень 2005 року.[3] :)

Зараз, одну програму (SLinCA) запущено на відкритій глобальної інфраструктурі розподілених обчислень (SLinCA@Home), а три інших (MultiScaleIVideoP, CPDynSG, LAMMPS через ІРО) перебувають в стадії тестування на закритому локальному Настільному Гріді (НГ) ІМФ.

Програми

Проект SLinCA@Home був створений для пошуку невідомих раніше масштабно-інваріантних закономірностей за результатами експериментів і моделювання в наступних наукових програмах

Scaling Laws in Cluster Aggregation (SLinCA)

SLinCA
Тип Грід, розподілені обчислення, волонтерські обчислення
Розробник ІМФ НАН України
Перший випуск 24 липня 2007
Платформа BOINC, SZTAKI Desktop Grid, XtremWeb-HEP, OurGrid
Операційна система Linux (32-bit), Windows (32-bit)
Мова програмування C, C++
Стан розробки Активний
Вебсайт dg.imp.kiev.ua

SLinCA (Scaling Laws in Cluster Aggregation) є першою програмою портованою на DG інфраструктуру лабораторією фізики деформаційних процесів ІМФ НАН України. Її метою є знайти закони масштабної інваріантності в кінетичному сценарії агрегації мономеру в кластерах різних видів і в різних наукових областях.

Процеси агрегації кластерів досліджуються в багатьох галузях науки: агрегації дефектів в матеріалознавстві, динаміці популяцій в біології, рості і розвитку міст в соціології, і т.д.Існуючі експериментальні дані свідчать про наявність ієрархічної структури на багатьох масштабних рівнях. Наявні теорії пропонують безліч сценаріїв агрегації кластерів, формування ієрархічних структур, і пояснення їх масштабно-інваріантних властивостей. Для їх перевірки необхідно використовувати потужні обчислювальні ресурси для обробки величезних баз даних експериментальних результатів. Звичайне моделювання одного процесу агрегації кластерів з 106 мономерами займає приблизно 1-7 днів на одному сучасному процесорі, в залежності від кількості кроків у методі Монте-Карло. Виконання SLinCA в Гріді в інфраструктурі розподілених обчислень (ІРО), дозволяє використовувати сотні машин з достатньою обчислювальною потужністю для моделювання безлічі сценаріїв за набагато більш короткі терміни.

Типові технічні параметри для запуску ІРО-версії програми SLinCA в глобальній відкритій інфраструктурі розподілених обчислень (ІРО) (SLinCA@Home):

  • Поточні умови для 1 завдання на 1 ядро процесора (2.4 GHz): час виконання ~2-4 години; RAM<60 Мб; НЖМД<40 Мб.
  • Чекпойнтінг[що це?]: н/д (в процесі тестування).
  • Хронометраж виконання завдань: нелінійний.
Наукові результати

Попередні результати програми SLinCA були отримані на EGEE обчислювальних ресурсах тестових інфраструктур CETA-CIEMAT та XtremWeb-HEP LAL; опубліковані в 2009 в стендовій доповіді 4th EDGeS training event and 3rd AlmereGrid Workshop, Алмере, Нідерланди (29-30 Березня, 2009).[4]

Плани на майбутнє

Поточна версія програми SLinCA буде оновлена ​​для стабільності чекпоінта, нової функціональності та підтримки NVIDIA GPU-розрахунків для виконання аналізу швидше (за оцінками від 50 до 200% швидше). Додаткова мета - це міграція на платформу OurGrid для тестування і демонстрації потенційних механізмів взаємодії між світовими спільнотами з різними парадигмами розподілених обчислень. SLinCA планується портувати на платформу OurGrid, орієнтовану на підтримку пірінгових настільних грідів, які, за своєю природою, дуже відрізняються від волонтерських розподілених обчислень на базі "Настільного Гріда" (НГ), як SZTAKI Desktop Grid.

Multiscale Image and Video Processing (MultiScaleIVideoP)

MultiScaleIVideoP
Тип Грід, розподілені обчислення, волонтерські обчислення
Розробник ИМФ НАН України (оболонка для середовища РО), Mathworks (бібліотеки MATLAB)
Перший випуск 11 січня 2008
Платформа MATLAB, BOINC, SZTAKI Desktop Grid, XtremWeb-HEP
Операційна система Linux (32-bit), Windows (32-bit)
Мова програмування C, C++, MATLAB
Стан розробки Альфа
Вебсайт dg.imp.kiev.ua

Оптична мікроскопія зазвичай використовується для аналізу структурних характеристик матеріалів у вузьких діапазонах збільшення, невеликої досліджуваної області, і в статичному режимі. Однак безліч критичних процесів, пов'язаних з початком і динамічним поширенням руйнування спостерігаються в широкому часовому діапазоні від 10 −3с до 10 3с і на багатьох масштабних рівнях від 10 −6м (одиночні дефекти) до 10 −2м (пов'язані мережі дефектів). Програма Multiscale Image and Video Processing (MultiscaleIVideoP) призначена для обробки записаної еволюції матеріалів під час механічної деформації на випробувальній машині. Розрахунки включають в себе безліч параметрів фізичного процесу (швидкість, зусилля, збільшення, умови освітлення, апаратні фільтри, і т.д.) і параметрів обробки зображення (розподіл за розмірами, анізотропія, локалізація, параметри масштабування і т.д.). Тому розрахунки дуже трудомісткі і виконуються дуже повільно. Ось чому з'явилася крайня необхідність використання потужніших обчислювальних ресурсів. Виконання цієї програми в інфраструктурі розподілених обчислень (ІРО), дозволяє використовувати сотні машин з достатньою обчислювальною потужністю для обробки зображень і відео в більш широкому діапазоні масштабів і за набагато більш короткі терміни.

Типові технічні параметри для запуску ІРО-версії програми MultiScaleIVideoP на закритому локальному Настільному Гріді (НГ) ІМФ :

  • Поточні умови для 1 завдання на 1 ядро процесора (2.4 GHz): час виконання ~ 20-30 хв; RAM<200 Мб; НЖМД<500 Мб.
  • Чекпойнтінг: н/д (в процесі тестування).
  • Хронометраж виконання завдань: лінійний.
Наукові результати

Попередні результати програми MultiScaleIVideoP були отримані на EGEE обчислювальних ресурсах тестових інфраструктур CETA-CIEMAT і XtremWeb-HEP LAL; опубліковані в 2009 в стендовій доповіді 4th EDGeS training event and 3rd AlmereGrid Workshop, Алмере, Нідерланди (29-30 березня, 2009).[5]

У січні, 2011 були отримані і опубліковані подальші результати обробки даних відеоспостереження в ході експериментів з циклічним обмеженим навантаженням алюмінієвої фольги.[6]

Плани на майбутнє

Поточна версія програми MultiScaleIVideoP буде оновлена ​​для стабільності чекпоінта, нової функціональності та підтримки NVIDIA GPU-розрахунків для виконання аналізу швидше (за оцінками від 300 до 600% швидше).

City Population Dynamics and Sustainable Growth (CPDynSG)

CPDynSG
Тип Грід, розподілені обчислення, волонтерські обчислення
Розробник ИМФ НАН України
Перший випуск 14 квітня 2010
Платформа BOINC, SZTAKI Desktop Grid
Операційна система Linux (32-bit), Windows (32-bit)
Мова програмування C, C++
Стан розробки Альфа
Вебсайт dg.imp.kiev.ua

Відомо, що зростання міст (муніципалітетів, округів тощо) пояснюється міграцією, злиттям, зростанням населення і т.д. Відмічено, що розподіл міст за їх розмірами в багатьох країнах підпорядковується статичному закону. Ця залежність підтверджується даними для популяцій в різних містах в період їх початкової історії. Населення у всіх великих містах зростає набагато швидше, ніж країна в цілому за значний діапазон часу. Однак, як і в містах, які досягли зрілості, їх зростання може сповільнитися або кількість населення може навіть знизитися з причин, не пов'язаних з міграцією в ще більші міста. Різні теорії дають темпи зростання, асимптотики, і розподілу таких груп населення. Важливою особливістю програми є порівняння наявних теорій з даними спостережень та прогнозування сценаріїв динаміки стійкого зростання населення для різних національних і міжнародних регіонів. Програма City Population Dynamics and Sustainable Growth (CPDynSG) дозволяє дослідити зв'язок між величезним обсягом експериментальних даних і знайти якісну відповідність між передбаченнями різних моделей і наявними історичними даними.

Типові технічні параметри для запуску ІРО-версії програми CPDynSG на закритому локальному Настільному Гріді (НГ) ІМФ :

  • Поточні умови для 1 завдання на 1 ядро процесора (2.4 GHz): час виконання ~ 20-30 хв; RAM<20 Мб; НЖМД<50 Мб.
  • Чекпойнтінг: н/д (в процесі тестування).
  • Хронометраж виконання завдань: лінійний.
Наукові результати

У червні-вересні 2010 року були отримані результати щодо концепції, результатів портування ІРО-версії програми CPDynSG на базі платформи Berkeley Open Infrastructure for Network Computing (BOINC), платформу SZTAKI Desktop Grid, і API для розподілених обчислень (DC-API) від SZTAKI, а також попередні результати для розподілу розмірів міст в кількох країнах Центральної та Східної Європи. Відзначена характерна ізоляція розподілу розмірів міст в Угорщині, а також виявлена дуже схожа еволюція розподілу за розмірами міст в Україні та Польщі. Ці результати були представлені на Cracow Grid Workshop'10 (11-13 жовтня, 2010) в усній і стендовій [7] доповідях. Представлений стенд був відзначений нагородою "За найкращу стендову доповідь Cracow Grid Workshop'09".

Плани на майбутнє

Поточна версія програми CPDynSG буде оновлена ​​для стабільності чекпоінта, нової функціональності та підтримки NVIDIA GPU-розрахунків для виконання аналізу швидше (за оцінками від 50 до 200% швидше).

Large-scale Atomic/Molecular Massively Parallel Simulator (LAMMPS) в інфраструктурі розподілених обчислень (ІРО)

LAMMPS в ІРО
Тип Грід, розподілені обчислення, волонтерські обчислення
Розробник ІМФ НАН України (оболонка для середовища РО), Sandia National Laboratories (LAMMPS itself)
Перший випуск 4 серпня 2010
Платформа BOINC, SZTAKI Desktop Grid
Операційна система Linux (32-bit), Windows (32-bit)
Мова програмування C, C++
Стан розробки Альфа
Вебсайт dg.imp.kiev.ua

Пошук нових нанорозмірних функціональних пристроїв став справжнім "Ельдорадо" сучасної науки і він стимулює "Золоту лихоманку" в сучасному матеріалознавстві. Але контрольоване виробництво нанорозмірних функціональних пристроїв вимагає ретельного вибору і настройки критичних параметрів (елементів, потенціалів взаємодії, режимів зовнішнього впливу, температури тощо) атомної самоорганізації в розроблюваних моделях і структурах для наномасштабних функціональних пристроїв. Ось чому молекулярно-динамічне моделювання процесів нановиробництва з декомпозицією фізичних параметрів і перебором параметрів методом "грубої сили" є досить перспективним. Для цієї мети був вибраний дуже популярний некомерційний пакет з відкритим кодом LAMMPS "Large-scale Atomic / Molecular Massively Parallel Simulator" (LAMMPS) від Sandia National Laboratories як кандидат для портування в інфраструктуру розподілених обчислень (ІРО) на основі платформи Berkeley Open Infrastructure for Network Computing (BOINC), SZTAKI Desktop Grid, і API для розподілених обчислень (DC-API) від SZTAKI. Як правило, для такого моделювання нанооб'єктів з багатьма параметрами потрібно надзвичайно багато обчислювальних ресурсів. Типове моделювання досліджуваних наноструктур для однієї конфігурації фізичних параметрів - наприклад, для моделювання фізичних процесів протягом 1-10 пікосекунд металевих монокристалів (Al, Cu, Mo, ітд.) З 10 7 атомів - потрібно приблизно 1 - 7 днів на одному сучасному процесорі. Виконання LAMMPS в Гріді в інфраструктурі розподілених обчислень (ІРО) дозволяє використовувати сотні машин одночасно і отримумати величезну кількість обчислювальних ресурсів для проведення моделювання в широкому діапазоні фізичних параметрів (конфігурацій) і в набагато більш короткі терміни .

Типові технічні параметри для запуску ІРО-версії програми MultiScaleIVideoP на закритому локальному Настільному Гріді (НГ) ІМФ :

  • Поточні умови для 1 завдання на 1 ядро процесора (2.4 GHz): час виконання ~ 2-48 годин; RAM<500 Мб; НЖМД<1 Гб.
  • Чекпойнтінг: н/д (в процесі тестування).
  • Хронометраж виконання завдань: лінійний.
Наукові результати

У вересні-жовтні 2010 отримані попередні результати були представлені в усній презентації на Міжнародній Конференції "Наноструктурні матеріали-2010"[недоступне посилання з лютого 2019], Київ, Україна [8]

Плани на майбутнє

Поточна версія LAMMPS із застосуванням програми ІРО буде оновлена ​​для стабільності чекпоінта, нової функціональності та підтримки NVIDIA GPU-розрахунків для виконання аналізу швидше (за оцінками від 300 до 500% швидше).

Партнери

SLinCA@Home співпрацює з

Нагороди

Партнер IDGF Юрій Гордієнко з дипломом за найкращий постер на CGW'10.

Див. також

Примітки

  1. BOINCstats project statistics. Архів оригіналу за 8 липня 2011. Процитовано 16 березня 2011.
  2. SLinCA@Home Server Status. Архів оригіналу за 21 лютого 2011. Процитовано 21 березня 2011.
  3. Comparison with TOP500 supercomputers. June, 2005. Процитовано 16 березня 2011.
  4. O. Gatsenko; O. Baskova, and Y. Gordienko (March, 2009). Kinetics of Defect Aggregation in Materials Science Simulated in Desktop Grid Computing Environment Installed in Ordinary Material Science Lab. Proceedings of 3rd AlmereGrid Workshop. Архів оригіналу за 23 лютого 2011. Процитовано March 16, 2011.
  5. O. Baskova; O. Gatsenko, and Y. Gordienko (March, 2009). Porting Multiparametric MATLAB Application for Image and Video Processing to Desktop Grid for High-Performance Distributed Computing. Proceedings of 3rd AlmereGrid Workshop. Архів оригіналу за 23 лютого 2011. Процитовано 16 березня 2011.
  6. O. Baskova; O. Gatsenko, O. Lodygensky, G. Fedak, and Y. Gordienko (January, 2011). Statistical Properties of Deformed Single-Crystal Surface under Real-Time Video Monitoring and Processing in the Desktop Grid Distributed Computing Environment 465. Key Engineering Materials. с. 306–309. Архів оригіналу за 26 липня 2012. Процитовано 16 березня 2011.
  7. O. Gatsenko; O. Baskova, and Y. Gordienko (February, 2011). Simulation of City Population Dynamics and Sustainable Growth in Desktop Grid Distributed Computing Infrastructure. Proceedings of Cracow Grid Workshop'10. Процитовано 16 березня 2011.
  8. O. Baskova; O. Gatsenko, O. Gontareva, E. Zasimchuk, and Y. Gordienko (19-22 October, 2011). Scale-Invariant Aggregation Kinetics of Nanoscale Defects of Crystalline Structure (Масштабно-інваріантна кінетика агрегації нанорозмірних дефектів кристалічної будови). Online Proceedings of “Nanostructured materials-2010”. Архів оригіналу за 26 липня 2012. Процитовано 16 березня 2011.
  9. O. Baskova; O. Gatsenko, and Y. Gordienko (February, 2010). Scaling-up MATLAB Application in Desktop Grid for High-Performance Distributed Computing - Example of Image and Video Processing. Proceedings of Cracow Grid Workshop'09. с. 255–263. ISBN 9788361433019. Архів оригіналу за 26 липня 2012. Процитовано 16 березня 2011.

Посилання

This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.