Тема ИНТЕЛЛЕКТ Разработка телекоммуникационных технологий и информационное обеспечение космических экспериментов.

Гос.регистрация . №01.20.03 03441

 

Научный руководитель д.т.н. Р.Р. Назиров

 

1.  Информационная поддержка научно-организационной деятельности ИКИ в сети Интернет. Развитие и поддержание в актуальном состоянии веб-сайта Института. Проведение работ по системному обеспечению и информационной поддержке Интернет-служб ИКИ. Внедрение системы Webmail для удаленного безопасного доступа к серверу электронной почты Института. Поддержка почтового сервера Института с защитой от спама и почтовых вирусов.

 

Проводилось разработка и оперативное обновление информации на веб-сайте института, включая представление годового отчета института, материалов регулярных конференций и   семинаров, проводимых в ИКИ РАН,  конкурсов научных работ, информации Ученого и диссертационных советов и других материалов. Разработаны и функционируют сайты дней космической науки, международной конференции  Europa Lander, международного симпозиума по опасным околоземным астероидам NEA2009 (Мальта), включающие системы регистрации участников, приема абстрактов. Освещаются все значимые институтские события.

Обеспечено функционирование и развитие аппаратной и программной частей серверов телематических служб института, включая почтовый сервер, Web-сервер, серверов службы доменных имен (DNS), FTP-сервер. Введен в эксплуатацию новый сервер архивации и распределения данных солнечно-земной физики. Проводилась опытная ограниченная эксплуатация системы Webmail, обеспечивающей любому владельцу POP3-аккаунта на почтовом сервере ИКИ возможность доступа к своему почтовому ящику через веб-интерфейс. Выявлены определенные ограничения использованной системы OpenWebmail, что показало желательность перехода на другую систему. В качестве вероятного кандидата рассматривается система SquirellMail. В рамках дальнейшей оптимизации производительности почтового сервера произведена переконфигурация POP3-сервера, включая переход на server-mode и введение кеширования заголовков сообщений, что значительно снизило среднюю загрузку сервера и сократило время реакции на запросы пользователей.

М.И.Шевченко ms@space.ru

М.Н. Боярский  mb@rssi.ru

 

2. Обеспечение совместной научной деятельности взаимно удаленных научных коллективов. Исследование технологии распределенной передачи потоков видеоинформации с использованием технологии Scalable Adaptive Graphics Environment (SAGE). Исследование и внедрение технологий виртуальных машин для повышения эффективности, безопасности и надежности использования программно-аппаратных средств вычислительной техники в локальных и глобальных сетях передачи данных.

 

Проведены работы по переносу отдельных телематических служб на виртуальные серверы под управлением монитора виртуальных машин Xen, что повышает эффективность использования вычислительных мощностей, безопасность и надежность функционирования сервисов. В частности, осуществлен перевод на виртуальную машину сервера потокового мульмедиа-вещания media.cosmos.ru, обеспечивающий работу семинара «Механика, управление и информатика», а также ряда тематических веб-серверов проектов, включая проект «Венера-Д». Проведены работы по обновлению программного обеспечения узла SAGE в ИКИ до последней актуальной версии. Обеспечено участие ИКИ РАН как партнера разработчиков технологии SAGE лаборатории электронной визуализации (EVL) университета Чикаго в режиме телеконференции во время работы годового собрания AAAS 2009. С использованием высокопроизводительного протокола передачи данных по глобальным сетям UDT проведена успешная загрузка на сервер ИКИ РАН массива данных SDSS DR7 объемом 2,4 ТБ по сети общего пользования со средней скоростью более 100 Мбит/сек.

М.Н. Боярский  mb@rssi.ru

 

3.  Разработка и внедрение открытой программной платформы для построения высокопроизводительных виртуальных транспортных сетей.

 

Проведены макетные испытания системы ПО UDTGATE для организации систем высокопроизводительных транспортных туннелей применительно к приложениям репликации данных в распределенных хранилищах. Сформирована карта сетевых сценариев, отражающая характерные параметры качества сетевой связности (в терминах <задержки, потери>) для взаимодействия между Москвой и различными удаленными регионами. Получены экспериментальные оценки скорости репликации данных в СУБД для актуальных сетевых сценариев. Устранен ряд ошибок в программном пакете UDTGATE. Создан дистрибутив для быстрого развертывания программного обеспечения, включающий адаптированную версию оригинальной библиотеки UDT. В данный момент система UDTGATE введена в опытную эксплуатацию между ИКИ РАН и удаленными партнерами, расположенными в научных центрах в Сибири и на Дальнем Востоке (Хабаровск, Красноярск, Владивосток).

Рис.   Скорость репликации для различных сетевых сценариев. Каждый столбец диаграммы показывает условную максимальную и минимальную скорость репликации для данного метода в данном сетевом сценарии. Методы:

          TCP – обычная репликация по протоколу TCP;
UDT – репликация  с использованием туннеля UDTGATE;
PUSH – репликация в рамках модели «клиент-сервер»;
PULL – репликация считыванием из бинарного журнала.

к.т.н. Коноплев В.В. E-mail V.Konoplev@rssi.ru

 

4. Развитие и внедрение технологий построения информационных ресурсов в области солнечно-земной физики и астрономии.

 

Разработана новая открытая технология параллельного хранения, обработки и доступа к многомерным массивам научных данных "Активное хранилище" (АХ). Для хранения и индексации массивов используется кластер реляционных баз данных, но при этом модель данных и язык запросов АХ совместимы со стандартом Common Data Model, принятом в последней версии научных пакетов NetCDF и HDF. Параллельная обработка данных реализована посредством встроенных процедур. Программный интерфейс АХ позволяет организовать прозрачный доступ к данным из различных сред и языков программирования, включая веб- и грид-сервисы, Matlab, Java, .NET и др. Программные реализации АХ для коммерческой СУБД MS SQL Server и открытой СУБД Postgress имеют сравнимые производительность и функциональность. Масштабируемость и гибкость технологии АХ продемонстрированы в работе с сверх-большими архивами данных дистанционного зондирования, метеорологии, климатологии, геомагнетизма, ионосферных исследований и космических лучей. Активное хранилище используется в ряде исследовательских проектов ИКИ РАН, ГЦ РАН, НОАА и Майкрософт.

к.ф.-м.н. Жижин М.Н.

5.  Исследование распределенных масштабируемых систем визуализации применительно к решению научных и производственных задач.

 

На базе видеостены ИКИ РАН создана новая технология MultiViewer, которая позволяет производить коллаборативную визуализацию больших наборов данных и изображений на многодисплейных видеостенах в распределенной грид-среде сервисов данных и параллельных вычислительных кластеров, объединенных скоростными каналами передачи данных. Принципиальное отличие MultiViewer от ранее использовавшейся технологии SAGE заключается в том, что первая использует каждый узел кластера видеостены для запуска клиентов, которые синхронно управляются головным сервером, тогда как SAGE-клиент работает на отдельном сервере, не входящем в состав кластера видеостены. При этом существенно повышается эффективность использования процессоров и графических карт на узлах кластера видеостены. Технологии SAGE и MultiViewer не являются взаимоисключающими. Клиенты MultiViewer на узлах видеостены в свою очередь могут быть клиентами SAGE для распределенной визуализации – транслировать свою часть изображения на удаленную видеостену, возможно, с другим количеством и конфигурацией дисплеев. Клиенты MultiViewer могут работать со всеми перечисленными выше распределенными источниками пространственных данных, включая информационные сообщения, сеточные поля, электронные карты и tile-серверы.

к.ф.-м.н. Жижин М.Н.

6. Развитие и внедрение технологий беспроводных сенсорных сетей в области мониторинга окружающей среды.

 

Разработано программное обеспечение и создан прототип беспроводной сенсорной сети для мониторинга геофизических полей на вулканах и геотермальных полях. Сенсорная сеть позволяет выполнять параллельный сбор и визуализацию в реальном времени множества геофизических параметров, включая температуру и влажность почвы и воздуха, освещенность, магнитные вариации, сейсмические колебания и инфразвук. Сбор данных реализован с помощью Активного хранилища для многомерных массивов. Сенсорная сеть была развернута в тестовом режиме на вулкане Толбачек и геотермальном поле Мутновка на Камчатке в августе 2009г.

к.ф.-м.н. Жижин М.Н.

7. Развитие и поддержка Grid-узла в ИКИ РАН.

 

Проведены исследовательские работы по использованию современных открытых систем  виртуализации (Xen 3) для организации масштабируемой вычислительной платформы для научных расчетов. Построен полигон для запуска виртуальных машин и проведения научных вычислений, состоящий из двух серверов (Dell R300) и сети хранения данных на базе системы хранения ISCSI (Infortrend EonStor A16E-2130G) общей емкостью 16TB и поддержкой технологии двойного резервирования (RAID6). Использование сети хранения данных позволяет обеспечивать быструю миграцию виртуальных машин с одной физической платформы на другую с сохранением оперативного доступа к большим массивам экспериментальных данных, размещенных в сети хранения. В рамках данной темы также исследовались механизмы преодоления ограничений, связанных с жестким планированием оперативной памяти для виртуальных машин на платформе Xen 3. Наряду с широко известным методом оперативного изменения размеров выделяемой виртуальной памяти «balloon driver», исследовался также метод косвенного конкурентного использования оперативной памяти привилегированного домена с помощью механизмов «свопирования» и буферного КЭШа.

А.Б. Александров, abba@cosmos.ru

 

8.  Автоматизация научно-организационной деятельности Института. Разработка и программная реализации интерактивного интерфейса с системой автоматизации научно-производственной деятельности.

 

Одной из важных составляющих научно-организационной деятельности Института является проведение конференций и семинаров различного плана. При этом следует отметить, что число подобных мероприятий постоянно увеличивается. С целью повышения эффективности их реализации был разработан концепт программного комплекса поддержки научных семинаров и отработан на конкретном примере.

Назаров В.В. vnazarov@romance.iki.rssi.ru

 

9.  Разработка рекомендаций применения международных информационных стандартов и протоколов в научных космических проектах.  Исследование аспектов построения комплексных распределенных информационных систем применительно к обеспечению жизненного цикла научного космического проекта.

 

На основе имеющегося опыта создания информационных систем научных космических проектов, а также с учетом современных трендов в информационной и телекоммуникационной отрасли были разработаны несколько оригинальных подходов (и выполнена частичная реализация некоторых из них), обеспечивающих общую унифицированную информационную среду систем информационного обеспечения научных космических проектов.

Результаты работ были представлены на Международной геофизической ассамблее.

Назаров В.В. vnazarov@romance.iki.rssi.ru

 

10.  Адаптация макетной версии системы поиска зависимостей между разнородными параметрами к интеграции в различные информационные системы научных космических проектов. Разработка и включение в систему расширенных методов визуализации и расширенного поиска информации.

 

Проведена систематизация доступной информации по проекту DEMETER. Осуществлен импорт ее в систему поиска зависимостей между разнородными параметрами научных космических измерений. Организован семинар с участием разработчиков таких международных информационных систем для научных космических исследований как NAIF, SPICE, PDS и IPDA. Обсуждены принципы дальнейшего развития поиска зависимостей между разнородными параметрами научных космических измерений и ее взаимосвязи с перечисленными системами.

    Назаров В.В. vnazarov@romance.iki.rssi.ru

 

11.  Эксплуатация  информационной системы оценки риска для здоровья  населения в связи с загрязнением окружающей среды.

 

В 2009 г. проведен ряд работ по оценке опасности для здоровья населения, создаваемой загрязнением воздушной среды выбросами нескольких предприятий. Наиболее крупным из них является Московский нефтеперерабатывающий завод. В рамках этих работ разработана новая методика оценки эффекта импульсных выбросов. В ходе работ активно используются материалы космической съемки для контроля достоверности данных об источниках выброса.

  с.н.с., к.т.н. В.В.Егоров victor_egorov@mail.ru

 

12. Имитационное моделирование изображений земной поверхности, получаемых с помощью гиперспектрометров авиационного базирования.

 

Разработана методика и создано программное обеспечение по имитационному моделированию изображений земной поверхности, получаемых с помощью авиационных гиперспектрометров. Методика включает в себя расчет энергии принимаемого оптического сигнала, поступающего на произвольный элемент матрицы и генерационно-рекомбинационного щума. Весь диапазон принимаемых сигналов (от 0.35 мкм до 15 мкм) разбит на два поддиапазона  (от 0.35 мкм до 3.5 мкм и от 3.5. мкм до 15 мкм), для которых были получены соответствующие формулы расчета. Элементом новизны разработанной методики является учет «подсветки» небосвода при различных состояниях замутненности атмосферы.  Полученные формулы использовались далее для симулирования изображений земной в виде плоского участка местности с расположенной на ней конусообразной горой, покрытой растительностью, причем характер и плотность растительности изменялись с высотой. Параметры гиперспектрометра соответствовали американскому сенсору AVIRIS, а максимальная высота «горы» задавалась равной 4 км.

Результаты работы нашли отражение в препринте ИКИ РАН и статьях  в сборниках трудов ИКИ РАН.

с.н.с., к.т.н. В.В.Егоров victor_egorov@mail.ru

 

13. Обработка гиперспектральных изображений поверхности Марса.

 

В 2009 г. продолжены работы по моделированию динамики сезонных изменений на поверхности Марса (в первую очередь, полярных шапок) по материалам гиперспектральной съемки прибором "Омега" в рамках эксперимента "Марс-Экспресс". Сохранение работоспособности этого прибора позволило накапливать все более длинные временные ряды данных (на настоящий момент - более 3 марсианских лет), что принципиально важно в задаче моделирования динамики. Впервые для решения этой задачи применен многочастичный фильтр Калмана, позволяющий удобно работать с данными высокой размерности, такими как гиперспектральные.

      с.н.с., к.т.н. В.В.Егоров victor_egorov@mail.ru

 

14. Малоракурсная томография для оценки распределения плотности и эффективного атомного номера (медицинское приложение: маммография). (Работа выполнялась совместно с ФГУ «Российский научный центр рентгенорадиологии Росмедтехнологии»)

 

Традиционные рентгеновские маммограммы визуализируют распределение числа фотонов, прошедших молочную железу без взаимодействия. Таким образом, рентгеновский снимок представляет собой нелинейную визуализацию распределения  произведения атомного номера на плотность и толщину участка молочной железы. В мировой практике на протяжении двух последних десятилетий широкое распространение получил метод двойного облучения молочной железы на двух различных энергиях с последующей визуализацией распределения разности логарифмов зарегистрированных чисел фотонов. Этот метод получил название «Двуэнергетическая вычитательная маммография» (Dual-energy subtraction mammography).

Характерно, что число англоязычных ссылок в Интернете на материалы, посвященные маммографии на двух энергиях, составляет более 14 тыс., на русскоязычные - ни одной.

Совместное влияние рассеянного излучения, плотности и атомного номера в двуэнергетической вычитательной маммографии на степень почернения участков получаемой маммограммы существенно затрудняет идентификацию микрокальцинатов (ранних предвестников онкологической опухоли),  что в свою очередь осложняет диагностику заболевания на ранней стадии.

В этой связи нами был предложен метод двуэнергетической делительной маммографии, заключающийся в визуализации распределения отношения логарифмов числа зарегистрированных фотонов при двукратном облучении молочной железы на низкой и высокой энергиях. Показано, что такое отношение зависит только от распределения эффективного атомного номера и не зависит от толщины и плотности участков молочной железы. Визуализация распределения такого отношения существенно повышает контрастность и резкость получаемых изображений и делает видимыми микрокальцинаты размером 0,1 мм.

На рис. 1а представлена маммограмма с непальпируемой онкологической опухолью (выделенный прямоугольником фрагмент) в виде участка перестроенной структуры тканей молочной железы с незначительным количеством микрокальцинатов. В других областях традиционной маммограммы микрокальцинаты не видны. Однако на распределении эффективного атомного номера (рис. 1б) микрокальцинаты проявляются весьма отчетливо, что может свидетельствовать о мультицентрическом поражении тканей молочной железы, по ходу млечных протоков. При этом видны и микрокальцинаты размером 0,1 мм, что наглядно демонстрирует увеличенный фрагмент изображения, визуализирующего распределение эффективного атомного номера.

  

а                                                                         б

                                                           в

Традиционная маммограмма (а), нелинейные преобразования распределение эффективного номера (б), увеличенный фрагмент (в)

 

Последующий морфологический анализ этой удаленной молочной железы подтвердил наличие микрокальцинатов в данных областях.

 

Вне плана проведена работа по анализу статистической связи чисел Вольфа с фазовыми сдвигами солнечных циклов.

с.н.с., д.т.н. В.А. Горшков,  gorshkov_va@mtu-net.ru

 

15. Продолжение работ по созданию архива данных.

 

|Продолжение работы по изучению природы, свойств и происхождения  пучков почти моноэнергетических ионов (ПМИ) в спектрах энергичных частиц около границ магнитосферы Земли, открытых  в эксперименте ДОК-2 (проект Интербол).

 

Пучки почти моноэнергетических ионов (ПМИ) в спектрах энергичных частиц  вблизи границ магнитосферы Земли были открыты в эксперименте ДОК-2 на борту спутников Интербол-1 и -2  (более 1000 событий за 1995-2000 гг.).

В 2009 г.  продолжалась работа по анализу и интерпретации данных по ПМИ.

1.  Выполнен сбор информации по характеристикам плазмы и магнитных полей (Интербол, Geotail, IMP-8, Wind, ACE) во время наблюдений ПМИ для 200 событий ПМИ.

2.  Построены графики временных вариаций параметров солнечного ветра (плотность, давление, скорость солнечного ветра) и межпланетных магнитных полей.

3.  Проведен статистический анализ основных характеристик пучков ПМИ:

   -   Места наблюдений, частота наблюдений, продолжительность событий,

   -   Значения энергий 3-х линий ПМИ, а также соотношение между ними,

   -   Ширина линий на половине высоты,

   -   Отношения между площадями линий протонов и альфа-частиц и сравнение их  с соответствующими отношениями для солнечного ветра.

Изучение свойств ПМИ на гораздо большей базе данных (~1000 случаев ) подтвердило выводы о природе ПМИ, о процессе и месте их ускорения. Ионы ПМИ являются результатом ускорения ионов солнечного ветра в потенциальном электрическом поле, образующемся при разрыве волокон токового слоя околоземной ударной волны (ОЗУВ).

 Как  было указано в докладе на конференции ИКИ по плазме 17-20 февраля 2009 г., разрыв может инициироваться взаимодействием токового слоя в солнечном ветре с ОЗУВ, приводящего к локальному отклонению потока солнечного ветра и образованию аномально горячего течения (HFA).  Это препятствует поступлению потока солнечного ветра к небольшому участку ОЗУВ и образованию здесь носителей способных поддерживать первоначальный ток. Вместе с тем получено несколько новых результатов. В частности, для событий с высоким временным разрешением для спектров построены и объяснены временные зависимости энергии и интенсивности протонной линии. Дальнейший их анализ, возможно, позволит оценить ЭДС самоиндукции токовой цепи, а значит величину тока и длину токовых волокон.

 Изучение пучков ПМИ вблизи ОЗУВ  позволяет получить принципиально новую информацию не только о процессах ускорения энергичных частиц, но и о крупномасштабных  свойствах и динамике токовых слоев в космической плазме.

Научный руководитель  в.н.с.  к.ф.-м.н. Луценко В.Н., отд.54

Гаврилова Е.А.,. тел. 333-44-22                    

 

Эксперимент «Плазма-Ф»  проекта   «СПЕКТР-Р». Разработка  методики  обработки данных  и проведение систематической  обработки испытаний прибора BMSW , входящего в состав эксперимента  «Плазма-Ф».

 

Написаны 6 версий программ декодировки данных  прибора BMSW. Регулярно проводилась обработка испытаний  технологической и  летной моделей прибора.

Зам. научн. рук. эксперимента в.н.с. д.ф.-м.н. Застенкер Г.Н., отд.54

    Гаврилова Е.А.,. тел. 333-44-22

 

Подготовка и передача в архив данных ИСЗ Болгария-1300 и КОСМОС-900.

 

Продолжены работы по архивации данных АОС, полученных в ИКИ от экспериментов по ИС Земли  и переписи их с магнитных лент на оптические носители.  По проектам Болгария-1300 и Космом-900  подготовлено  к передаче   170 сеансов (из них 30 – повтор), передано в архив - 53. Каждый сеанс сопровождается паспортом.

Рудневская Л.В. тел. 333-50-45

 

16. Исследования по системам сжатия данных. Разработка и исследование систем сжатия серий изображений (в т.ч. гиперспектральных) с использованием методов согласованной пространственной фильтрации и корреляционного подхода.

 

Исследована возможность использования адаптивной пространственной пре- и пост-фильтрации в схемах сжатия полутоновых изображений на основе модифицированного метода усечённого блочного кодирования, предложен метод синтеза коэффициентов фильтров. Результатом исследований стала разработка кодера, ориентированного на бортовую реализацию, с уровнем искажений, сравнимым с обеспечиваемым стандартным кодером JPEG, но отличающегося от него значительно меньшими требованиями к вычислительным ресурсам (~25 элементарных вычислительных операций на пиксель чёрно-белого полутонового изображения).

Продолжалась работа над схемой восстановления изображений, получаемых в ходе репортажной съемки в процессе посадки КА "Фобос-грунт", сжатых с использованием метода частичных сумм, с целью обеспечения визуально более высокого качества восстановленных изображений.

 Гл. спец., к.т.н., И. М. Книжный Тел. 333-13-01. E-mail: kim@mx.iki.rssi.ru

 

17.  Разработка схем эффективного сжимающего кодирования. Разработка  модифицированной схемы кодирования на принципе Голомба для  времяпролетных  масс-спектрометров с малым числом регистрирующих частиц в Адамаровском  режиме (с модуляцией ионного пучка псевдослучайной последовательностью и  последующим обратным преобразованием).

 

Исследована возможность построения посимвольных кодов для использования в схемах статистического кодирования геометрического источника, обеспечивающих в среднем меньшую избыточность, чем при использовании кода Голомба. Предложена регулярная процедура построения таких кодов.

Гл. спец., к.т.н., И. М. Книжный Тел. 333-13-01. E-mail: kim@mx.iki.rssi.ru

 

Тема КОСМОС Модернизация и развитие научной космической сети «КОСМОС» на базе технологии Gigabit Ethernet

Гос.рег. №01.20.03 03443

 

Научный руководитель д.т.н. Р.Р. Назиров

 

За отчетный период были проведены работы по сопровождению и дальнейшему развитию ряда сегментов сети Института. Была проведена модернизация структурированной кабельной системы Института, модернизация сегмента для размещения коллективных вычислительных ресурсов (Грид-сегмента) Института, организация сети хранения данных, осуществлен ввод в эксплуатацию нового сетевого оборудования.

Модернизация Грид-сегмента сети включала установку новых коммутаторов (HP ProCurve 2810-48G), организацию изолированной виртуальной сети для внутреннего обмена данными, а также организацию изолированной виртуальной сети для управления оборудованием.

Организация сети хранения данных включала ввод в производственную  эксплуатацию сетевого хранилища ISCSI (Infortrend EonStor A16E-2130G) общим объемом 16TB с поддержкой технологии двойного резервирования (RAID6). Результаты работы были использованы при организации IT-инфраструктуры для проекта «Фобос-Грунт» в ИКИ РАН, а также при построении платформы виртуализации для запуска научных приложений, которая в данный момент применяется в задачах обработки астрономических снимков.

Предложена и протестирована методика улучшения трансляции видеопотоков в территориально распределенных сетях, использующая технику выборочного продвижения отдельных  кадров потока в зависимости от их значимости для успешного декодирования на стороне приемника. Проведенные эксперименты показали улучшение от 15% до 50% по количеству «замираний» видеоизображения. Результаты изложены в [1].

Произведен ввод в эксплуатацию нового магистрального оборудования: маршрутизатор Cisco 7600 и коммутатор Cisco Catalyst 6500, поддерживающих технологию 10 Gigabit Ethernet.

Произведено расширение волоконно-оптической инфраструктуры Института, выполнено подключение ряда новых корпусов (Б-1, Б-4, Б-6) к основному зданию по технологии 1000BASE-FL с соответствующей модернизацией активного сетевого оборудования.

 

 

 

А.Б. Александров, abba@cosmos.ru