WWW.NAUKA.X-PDF.RU
БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА - Книги, издания, публикации
 

Pages:   || 2 | 3 | 4 | 5 |   ...   | 13 |

«Рекомендовано Редакционно-издательским советом ГрГУ им. Я. Купалы. Ред а к ц и он н а я кол л е г и я : М. А. Маталыцкий, доктор физико-математических наук, профессор (гл. ред.); М. К. ...»

-- [ Страница 1 ] --

УДК 00

ББК 32.81

М

Рекомендовано Редакционно-издательским советом ГрГУ им. Я. Купалы.

Ред а к ц и он н а я кол л е г и я :

М. А. Маталыцкий, доктор физико-математических наук, профессор (гл. ред.);

М. К. Буза, доктор технических наук, профессор;

Ю. М. Вувуникян, доктор физико-математических наук, профессор;

В. А. Липницкий, доктор технических наук, профессор;

А. М. Кадан, кандидат технических наук, доцент;

Е. А. Ровба, доктор физико-математических наук, профессор;



Л. В. Рудикова, кандидат физико-математических наук, доцент;

Г. Ч. Шушкевич, доктор физико-математических наук.

Ре ц е н з е н т ы :

Харин Ю. С., член-корреспондент НАН Беларуси, доктор физико-математических наук, профессор, зав. кафедрой математического моделирования Белорусского государственного университета;

Тыщенко В. Ю., кандидат физико-математических наук, доцент кафедры математического анализа и дифференциальных уравнений Учреждения образования «Гродненский государственный университет имени Янки Купалы».

Математическое и компьютерное моделирование систем

М34 и процессов : сб. науч. ст. / ГрГУ им. Я. Купалы ; редкол.:

М. А. Маталыцкий (гл. ред.) [и др.]. – Гродно : ГрГУ, 2013. – 368 с.

ISBN 978-985-515-677-3 Представлены научные статьи по следующим направлениям: стохастическое моделирование, детерминированные системы и процессы, кластерные системы и параллельные вычисления. Материалы будут полезны научным работникам, специалистам в области прикладной математики, информатики, преподавателям вузов, а также аспирантам, магистрантам и студентам.

УДК 004 ББК 32.81 © Учреждение образования «Гродненский государственный университет ISBN 978-985-515-677-3 имени Янки Купалы», 2013 Предисловие Сборник научных статей Математическое и компьютерное моделирование систем и процессов, который мы имеем честь вам представить, издается уже в третий раз по инициативе факультета математики и информатики Гродненского государственного университета им. Янки Купалы.

Выход в свет предлагаемого вашему вниманию сборника научных статей стал возможен в результате объединения усилий не только белорусских ученых и ИТ-специалистов, нои их коллег, представляющих различные учебные заведения и научные институты дальнего и ближнего зарубежья, сферу ИТ-бизнеса, а также Представительства компании Cisco в Республике Беларусь, руководителей и инструкторов академий Cisco из Беларуси, Грузии и Казахстана.

Наша республика по праву гордится уровнем своих ИТ-специалистов и программистов. Разработка программного обеспечения, технологии защиты информации, образовательные услуги в ИТ-сфере являются сегодня одними из ведущих экспортных услуг Республики Беларусь, визитной карточкой уровня развития нашего государства, показателем неизменно высокого и современного уровня университетского ИТ-образования.

Немалая заслуга в этом высококвалифицированных научных работников, сотрудников ведущих вузов, работы которых представлены среди материалов этого сборника, и отражают результаты прикладных и фундаментальных исследований, выполненных их авторами.

Отличительной особенностью сборника является широкий диапазон рассматриваемых проблем. Это отражает место информационных технологий в современном обществе, их роль и значимость, повышенный интерес к ним различных категорий исследователей, необходимость обсуждения актуальных вопросов специалистами различных направлений.

Материалы сборника сгруппированы по следующим разделам:

- кластерные системы и параллельные вычисления;

- детерминированные системы и процессы;

- стохастическое моделирование;

Факультет математики и информатики Государственного учреждения образования Гродненский государственный университет им.Янки Купалы, по инициативе сотрудников которого издается этот сборник, авторитетное учебное подразделение, которое готовит специалистов по важным научным и производственным направлениям, в том числе и по самым современным и актуальным – программированию, компьютерной безопасности, прикладной математике, включая современные компьютерные информационные технологии, математическое, программное и информационное обеспечение компьютерных систем и сетей, автоматизированных систем управления, а также по такому современному направлению, как управление информационными ресурсами.





Надеемся, что издание данного сборника будет способствовать должной оценке результатов научно-исследовательской работы, плодотворному обмену опытом работы и научной информацией, стимулом к консолидации сил и творческой активности по выполнению республиканских научных программ, а также явится обобщением опыта разработки современных информационных технологий и практического применения их результатов, способствующих прогрессу нашего общества и улучшению качества подготовки специалистов.

–  –  –

.

КЛАСТЕРНЫЕ СИСТЕМЫ И

ПАРАЛЛЕЛЬНЫЕ ВЫЧИСЛЕНИЯ

Belov M.A., Halavanau A.A. Speeding up computations in physics with general-purpose graphic processors Анищенко В.В., Парамонов Н.Н., Чиж О.П. Методологические принципы обоснования и выбора параметров отраслевых суперкомпьютеров Анищенко И.И., Родченко В.Г. Алгоритм построения кластерной структуры на основе использования «центра масс» образа класса Бабарика Н.Н., Никитин А.В. Автоматизация системы документооборота и алгоритмы принятия решений Белко А.В., Никитин А.В. Параллельные алгоритмы решения задач молекулярной динамики Гулай А.В., Гулай В.А., Козлова О.А., Колешко В.М. Ab initio моделирование электронных свойств фторидов редкоземельных элементов Карпович А.В. Параллельные вычисления в молекулярной динамике Кондратьева О. Библиотека классов для разработки mpi-приложений Курочка К.С., Левкович Д.А., Кухаренко А.А. Создание вычислительного кластера для решения задач о распределении электромагнитного поля на основе бесплатного программного обеспечения Курочка К.С., Кухаренко А.А. Компьютерное моделирование распределения электромагнитного поля вокруг сферических частиц с использованием векторного метода конечных элементов Шалькевич П.К., Кундас С.П. Анализ эффективности использования программных пакетов pvm и mpi для параллелизации вычислений при моделировании неизотермического влагопереноса в природных дисперсных средах UDK 004.382.2:519.63

–  –  –

SPEEDING UP COMPUTATIONS IN PHYSICS WITH GENERAL-PURPOSE

GRAPHIC PROCESSORS

Numerous problems in physics require huge amount of computations, and up until current decade only supercomputers were able to provide enough computation power. During the last few years general-purpose graphic processing units (GPGPU, commonly refered to as video adapters) provide a supercomputer-class performance. We consider GPGPU application programming interfaces, and provide an example of one-dimensional linear wave equation solution with the use of OpenCL API.

We also provide the results of a performance test of few GPGPU.

Introduction

Various numerical problems in physics lead to huge yet parallelizible computation. Almost every problem described via linear equations system, partial dierential equations, Monte-Carlo methods is subject to parallel computation. While x86-based supercomputers are commonly used for these problems, they are quite expensive. Therefore, a cheap alternative is required.

NVidia corporation was the rst who started marketing such an alternative. The introduced CUDA technology was a way to exploit computation power of video adapters for any general application, thus the term GPGPU has appeared. CUDA is available only for nVidia hardware, and possesses a mature toolkit, including a debugger, proler, BLAS and Fourier transform libraries.

Meanwhile, OpenCL [1], an open standard for GPGPU application programming interface (API) was developed. It was adopted by AMD company, as AMD’s own API was not successful, and, up to now it has every major architecture support. OpenCL standard denes a cross-platform library, with the support for heterogeneous computing, OpenGL compatibility, however it lacks special-purpose computation packages, as those which are supplied with CUDA. Fortunately, AMD provides this software within its OpenCL API. NVidia GPGPU also supports OpenCL, while CUDA perform faster on their hardware. CPUs that feature SSE3 command set can also execute OpenCL programs, while various ARM and IBM PPC architectures have beta status of OpenCL support. OpenCL and CUDA APIs are compared in table 1. We generally believe that OpenCL is the best choice for newly developed software, however CUDA is a more matured technology.

Table 1 – CUDA and OpenCL compared

–  –  –

As the result, GPGPU became a cheap way for massively parallel computing. Moreover, modern top-level single-processor video adapters provide computational power of early-2000s top-level supercom– puters. In the gure 1 there is a performance plot for top-level supercomputers, and top-level GPGPU.

One of the fastest x86 CPUs is also shown. Finally, we compare a supercomputer to a video adapter of the same performance in the table 2.

1/ 1/ 1/ 1000 1/10000 Figure 1 – Performance (in TFLOPs) of top-level hardware versus production year: supercomputers (stars), single chip video adapters (circles), single chip microprocessor (square) Table 1 – SKIF-K1000-05 and nVidia GeForce GTX 680 compared. Note – SKIF-K1000-05 is a half of the former SKIF-K1000 supercomputer currently installed in the Belarusian State University. Performance marks are halved SKIF-K1000 marks from [2].

–  –  –

Despite the advantages of GPGPU, they are slowly adopted for computational physics purposes and are still mainly used to speed up Monte Carlo simulations in high energy physics. Implementing Monte Carlo simulations on GPU is natural, because it is obvious how to parallelize the problem [4]. A plenty of computational physics tasks involve solution of PDE, and solving PDEs may be signicantly harder. The purpose of this paper is to illustrate how one can easily implement widespread approaches to PDE solution on GPGPU with OpenCL API. We discuss explicit nite-dierence method for heat equation in the rst chapter. In the second chapter we consider method of lines for a wave equation.

OpenCL implementation of nite-dierence method for heat equation.

–  –  –

where A and ub are constants and u0 (x) is an arbitrary function within given constraints.

First and the most naive approach is to replace all derivatives with appropriate nite dierences;

this leads to either explicit or implicit methods. The former ones have convergence issues, the latter ones lead to many-diagonal matrix linear equation systems for every time step [5]. However, we will regard the explicit method just for a purpose of a simple example.

We introduce time step t, divide the coordinate with N points, thus, coordinate step is x = a/(N 1). We also replace u(x, t) with its grid values ui,j = u(ix, jt). Finally, after replacing

derivatives in (1) we get:

–  –  –

A kernel is a function to be executed on GPU. Copies of this kernel is simultaneously executed on GPU cores. Initial values ui,0 are passed via array in. There are totally N copies, each gets unique number i from 0 to N 1, considered as spatial index. Therefore, there is no need for a loop over i. After that, there goes a loop over time steps. Most kernels calculate new values for next slice ui,j+1 = out, based on current slice ui,j = in. Kernels with identier i equal to 0 and N 1 just set boundary points in accordance with boundary conditions (2). The line barrier(CLK_GLOBAL_MEM_FENCE); forces every kernel to stop until the layer is completely evaluated. Finally, last layer is returned to main program (not given in this paper) via out array.

The results of productivity test on AMD A6-4455M APU (in stock conguration) are given on gure 3. Calculation speed is measured in million lattice points per second. Speed against number of spatial lattice points N (and number of parallel kernels) is plotted. While N is small the speed grows linearly, then the growth saturates. One could expect saturation at the point where N is less or equal to the number of the cores in the processing unit, but for this particular case the saturation happens when N 4096, while A6-4455M has only 256 cores.

Figure 3 – OpenCL solver for the heat equation performance against the number of concurrent kernels. GPGPU has 256 cores.

We can explain this unexpected fact by internal GPU scheduling. The more workload GPU has, the more opportunities its scheduler possesses, thus it operates more eciently. Code, which is given on gure 2 has considerable rate of barrier calls, that decrease eciency of scheduler, because they must be scheduled statically. We believe, that 256 kernel copies (one per core) do not provide enough movable operations, so cores waste their time in idle mode, waiting for barrier synchronization. After N reaches the saturation point, processing units become completely loaded and performance stops its increase.

To sum up, we can draw a preliminary conclusion, that GPGPU usage for PDE solution is ecient in the case of massively parallel code, i. e. when number of concurrent processes is rather large.

OpenCL implementation of the method of line for wave equation.

In this chapter we discus the parallel implementation of the method of lines for hyperbolic wave

equation with one spatial dimension:

(5) tt xx = 0 Explicit nite-dierence scheme has issues that prohibit it from general use. Depending on discreti– zation scheme some other methods can be constructed, for example the leap-frog and the CrankNicholson methods [6], symplectic integrators [7]. We follow another way of solving PDE which is also easy to implement and parallelize, namely, the method of lines.

We discretize the space while leaving the time derivatives, and obtain the system of ordinary dierential equations. This system is then can be integrated by any of known methods (Runge-Kutta, Adams, etc.) [8].

We have applied the most simple form of the method of lines. Nevertheless, it uses high order schemes and provides us with robust data. The used nite dierence for the second order spatial

derivative is following:

–  –  –

Conclusions The both method of lines and explicit nite-dierence scheme utilize the true parallel manner of PDE integrating and has wide range of applications in hyperbolic, parabolic, and mixed-type equations.

Our results prove that general-purpose GPU can suciently speed up the process of numerical integration and open parallel computing world to everyone without a considerable expense. Moreover, shared memory model provides great scalability and allows use of lattices of size limited only by available memory.

Acknowledgments We are grateful to Moscow nVidia division for provided hardware and technical support.

List of references

1. Accelerated Parallel Processing (APP) AMD SDK [Electronic resource] / Advanced Micro Devices, Inc., 2013. – Mode of access: http://developer.amd.com/tools/heterogeneous-computing/amd-acceleratedparallel-processing-app-sdk/. – Date of access: 15.03.2013.

2. SKIF K-1000 - Opteron 2.2 GHz, Inniband [Electronic resource] / TOP500 supercomputer rating – Mode of access: http://www.top500.org/system/173739. – Date of access: 15.03.2013.

3. Новый суперкомпьютер "СКИФ К-1000-05"выполняет 2,5 трлн. операций в секунду [Электронный ресурс] / Белорусская информационная компания БЕЛАПАН. – Минск, 2005. – Режим доступа:

http://belapan.com/archive/2010/02/12/media_superkomp_v2 / – Дата доступа: 15.03.2013.

4. Eglo, D. High Performance Finite Dierence PDE Solvers on GPUs / D. Eglo, QuantAlea GmbH. – Switzerland, 2010.

5. Крылов, В. И. Вычислительные методы высшей математики: в 2 т. / В.И. Крылов, В.В. Бобков, П.И.

Монастырный – Минск: Вышэйшая Школа, 1975. – Т. 2. – 672 с.

6. Crank, J. A practical method for numerical evaluation of solutions of partial dierential equations of the heat conduction type / J. Crank, P. Nicolson // Proc. Camb. Phil. Soc. –1954. – Vol. 43 N.1. – P. 50–67

7. Markiewicz, D. W. Survey on Symplectic Integrators / D. W. Markiewicz – Spring, 1999. –P. 13.

8. Green, M. A. Time Dependent Problems and Dierence Methods Bertil Gustafsson / M. A. Green, H.-O.

Kreiss, J. Oliger., Pure and Applied Math. – Wiley, 1996.

Belov Maxim Alexandrovich, Assisting professor of the Department of Physical Informatics, Atomic and Molecular physics, Belarusian State University, mpui@tut.by Halavanau Aliaksei Aliaksandravich, Master student of the Department of Theoretical Physics and Astrophysics, Belarusian State University, aliaksei.halavanau@gmail.com УДК 004.508.4 В. В. АНИЩЕНКО, Н. Н. ПАРАМОНОВ, О. П. ЧИЖ

МЕТОДОЛОГИЧЕСКИЕ ПРИНЦИПЫ ОБОСНОВАНИЯ И ВЫБОРА

ПАРАМЕТРОВ ОТРАСЛЕВЫХ СУПЕРКОМПЬЮТЕРОВ

Формулируются основные концептуальные принципы для обоснования и выбора базовых технических характеристик предметно-ориентированных отраслевых суперкомпьютерных конфигураций с учетом бюджета проекта, целей создания суперкомпьютера, специфики приложений, тенденций развития суперкомпьютерных технологий и других факторов.

Введение

Тенденции развития информационных технологий, наличие и возрастающая доступность высокопроизводительных вычислительных систем (суперкомпьютеров) диктуют необходимость широкого внедрения принципов параллельных вычислений для решения сложнейших задач машиностроения, биотехнологии, геологоразведки, контроля окружающей среды, транспорта и связи, государственных, коммерческих, военных и других приложений. Появилась потребность создания суперкомпьютерных конфигураций, оптимально реализующих перспективные математические модели и алгоритмы, ориентированные на решение наиболее сложных и наукоемких задач в ключевых экономически значимых секторах экономики. Суперкомпьютеры, оптимизированные (архитектурно, функционально, конструктивно-технологически и т. п.) для решения определенных задач конкретной отрасли экономики, называют предметно-ориентированными суперкомпьютерными системами отраслевого назначения (сокращенно – отраслевыми суперкомпьютерами) [1].

Использование отраслевых суперкомпьютеров может обеспечить наибольшую экономическую отдачу вложенных отраслью средств и мультипликативный инновационный эффект. В последние годы, например, в стратегически важном для Союзного государства Беларуси и России (СГ) топливно-энергетическом секторе экономики резко возрастают потребности в скорости и качестве высокопроизводительных вычислений при поисках, разведке и разработке месторождений природных ресурсов. Такое положение обусловлено необходимостью решения задач, возникающих в связи с истощением разрабатываемых месторождений, снижением эффективности добычи, экономическими и технологическими сложностями в поисках и освоении новых месторождений из-за усложнения условий проведения геологоразведочных работ. Повышение точности и скорости расчетов и качества моделирования процессов в технологических задачах поисков, разведки, разработки и использования месторождений углеводородного и углеродного сырья является наиболее важной и перспективной задачей топливно-энергетического сервиса, решение которой существенно влияет на прирост запасов, экономию ресурсов и использование простаивающего фонда скважин, рост уровня отдачи месторождений [2].

В сложившейся ситуации особое значение приобретают обоснование и выбор базовых параметров суперкомпьютеров, проектируемых для решения задач конкретной отрасли экономики. Ниже изложен методологический подход для концептуальной оценки характеристик отраслевых кластеров с учетом финансовых возможностей отраслевой структуры, степени развития ее вычислительной инфраструктуры, специфики решаемых задач, мировых тенденций развития суперкомпьютерных технологий и других факторов. Методологические принципы сформулированы на основании практического опыта, полученного авторами в процессе создания и эксплуатации моделей суперкомпьютеров семейства СКИФ. Создан существенный научнотехнический задел для практического использования созданных вычислительных ресурсов и развития в РБ суперкомпьютерного направления и грид-технологий [3].

12 Конфликт целей и возможностей отраслевой структуры При разработке проекта суперкомпьютера для отраслевой структуры того или иного уровня (отраслевой центр обработки данных, исследовательское или учебное заведение, отраслевые структуры типа офисов и т.п.), как правило, возникает естественный конфликт желаний и возможностей. Поэтому на начальном этапе жизненного цикла отраслевого суперкомпьютера необходимо уделить особое внимание совокупности ряда определяющих действий, таких как оценка реального объема финансирования проекта создания кластерной конфигурации (бюджет проекта), анализ назначения и целей создания отраслевой кластерной конфигурации, анализ специфики приложений и др. (см. рисунок).

Рисунок 1 – Анализ возможностей и желаний на начальном этапе проектирования отраслевого кластера Оценка бюджета проекта с учетом назначения и целей создания кластера во многом определяет масштаб проекта и базовые параметры создаваемой конфигурации. Заказчик стремится сократить совокупную стоимость владения системой (Total cost of ownership TCO). Например, дополнительные (накладные) расходы во многом зависят от назначения и места установки кластера. Так, если кластер предназначен для установки в отраслевом центре обработки данных (ЦОД), то особое значение имеет наличие (или отсутствие) подготовленного с точки зрения инженерной инфраструктуры соответствующего помещения. В случае отсутствия оборудованного помещения значительная часть объема финансирования проекта уйдет на создание инженерной инфраструктуры суперкомпьютерного центра, включающей системы электропитания, телекоммуникаций, кондиционирования, пожарной безопасности и др. Существенное значение имеет сокращение расходов на администрирование, потребление электроэнергии, планируемую модернизацию и т.п. [4].

Совершенно иной объем совокупной стоимости владения системой (Total cost of ownership – TCO) при использовании суперкомпьютеров для низовых отраслевых структур (отделы, офисы и т.п.). По своим параметрам и назначению вычислительные конфигурации, ориентированные на использование непосредственно в офисах, относятся к классу персональных суперкомпьютеров (кластеров). Модели персональных суперкомпьютеров – это небольшие экономичные полнофункциональные вычислительные комплексы с модульной кластерной архитектурой. Эти изделия заполняют нишу, разделяющую обычные персональные компьютеры и мощные суперкомпьютерные конфигурации, обеспечивая возможность использования суперкомпьютерных технологий в отдельной организации, подразделении для персональных вычислений [5].

Оценка бюджета проекта и стоимости вычислительной мощности проектируемого суперкомпьютера (стоимость 1 Гфлопса), как правило, отрезвляюще действует на его потенциальных пользователей. Необходимо, однако, учитывать, что бурное развитие суперкомпьютерных технологий приводит к существенному увеличению вычислительной плотности и снижению стоимости вычислений. Например, стоимость создания в 2004 году кластера СКИФ К-1000 (пиковая производительность 2,5 Тфлопс) составила 2 млн. USD. Стоимость 1 Гфлопса в этом случае составила 800 USD. Оборудование кластера СКИФ К-1000 располагалось в восьми 19” стойках, бесперебойное электропитание кластера обеспечивалось при помощи восьми стоек ИБП. Стоимость же создания в 2010 году кластера СКИФ-ГРИД (пиковая производительность 8,0 Тфлопс) составила 0,55 млн. USD. Стоимость 1 Гфлопса в этом случае составила примерно 70 USD. Оборудование кластера СКИФ-ГРИД располагается в одной 19” стойке, бесперебойное электропитание кластера обеспечивается при помощи одной стойки ИБП.

Анализ взаимосвязи между классами прикладных задач отрасли и параметрами создаваемой кластерной конфигурации Главная цель создания любой вычислительной конфигурации – обеспечение эффективного выполнения приложений. Задачи, решаемые в различных отраслях экономики, помимо специфики назначения отличаются количеством вычислительных операций, размерностью, объёмами входных данных, формами параллелизма, требованиями к времени решения задачи и т.п. Необходимо адекватно отобразить свойства прикладных задач в создаваемой инструментальной среде.

Эта цель достигается путем выбора соответствующих тактико-технических параметров создаваемых суперкомпьютерных конфигураций с учетом специфики отраслевых приложений.Правила оформления материалов предполатают, что в Вашей статье должны присутствовать следующие обязательные элементы:

Например, для геолого-геофизических приложений необходимо учитывать тот факт, что развитие технологий для поиска, разведки и разработки месторождений нефти, газа и других природных ресурсов сопровождается информационным взрывом : количество данных, описывающих строение недр, растет экспоненциально. От двухмерных представлений нефтегазовых объектов в виде карт и разрезов осуществляется переход к трехмерным математическим компьютерным моделям, а изучение процессов фильтрации в пластах добавило четвертое измерение время. При работе с геолого-геофизической информацией особые требования предъявляются к оперативной памяти, системам и устройствам хранения данных. Геофизические данные обычно имеют большой объем, что предъявляет высокие требования к скорости последовательного доступа к информации. В суперкомпьютерах общего назначения большее внимание уделяется пиковой производительности системы в вычислениях (а также производительности в тесте Linpack), а производительность подсистемы хранения данных часто бывает посредственной. Внедрение же предметно-ориентированных отраслевых суперкомпьютеров позволит использовать решения, оптимизированные именно для геолого-геофизических задач [2].

Задачи, решаемые в различных отраслях экономики, помимо специфики назначения отличаются количеством вычислительных операций, размерностью, объемами входных данных, формами параллелизма, требованиями к времени решения задачи и т.п. Время решения больших задач, наряду с перечисленными факторами, существенно зависит от быстродействия используемой компьютерной техники. Достигнутый современный уровень быстродействия персональных компьютеров – десятки гигафлопс (Гфлопс), суперкомпьютеров – терафлопсы (Тфлопс) и петафлопсы, на горизонте – экзафлопсы. В суперкомпьютерных системах созданы предпосылки для реализации параллельной обработки данных. Параллелизм – это возможность одновременного выполнения более одной арифметико-логической операции или программной ветви. Для реализации этой возможности необходимо, чтобы один и тот же процессор не назначался разным операциям в один и тот же момент времени. Практическая реализация параллелизма во многом определяется спецификой самих приложений. Возможность параллельного выполнения операций определяется правилом Рассела, в соответствии с которым два программных объекта (команды, операторы, программы) могут выполняться параллельно, если наборы входных и выходных данных этих объектов не зависят друг от друга [6].

Для поддержки параллельных вычислений обычно используют классические системы поддержки параллельных вычислений, обеспечивающие эффективное распараллеливание прикладных задач различных классов (как правило, задач с явным параллелизмом): MPI, PVM, Norma, DVM и др. В семействе суперкомпьютеров СКИФ, например, в которых реализована кластерная архитектура, в качестве базовой классической системы поддержки параллельных вычислений выбран MPI, что не исключает использование других средств. На кластерном уровне с использованием MPI эффективно реализуются фрагменты со сложной логикой вычисления, с крупноблочным (явным статическим или скрытым динамическим) параллелизмом. Для организации же параллельного исполнения задач с потоковыми вычислениями (data-ow), требующими обработки в реальном режиме времени, эффективно использование специализированных процессоров, например, графических.

Одной из главных характеристик параллельных вычислительных систем является ускорение Rn этой системы, которое определяется очевидным соотношением: Rn = T1 /Tn, где T1 – время решения задачи на однопроцессорной системе, Tn – время решения той же задачи на n-процессорной системе.

Принципиально важные для параллельных вычислений положения определяются известным законом Амдала [6]. В соответствии с этим законом следует: ускорение R системы зависит от потенциального параллелизма задачи (величина k) и от параметров аппаратуры (числа процессоров n); предельное ускорение системы Rmax (при числе процессоров, стремящемся к бесконечности) практически определяется только свойствами задачи (потенциальным параллелизмом):

Rmax = 1/k.

Потенциальный параллелизм задачи k определяется удельным весом скалярных операций:

k = Wsc /W, где W = Wpar +Wsc - общее число операций в задаче; Wpar – число операций, которые можно выполнять параллельно; Wsc – число скалярных (нераспараллеливаемых) операций.

С учетом этих соотношений, например, при удельном весе скалярных операций k = 0, ускорение Rn в соответствии с законом Амдала не может превышать величину 10 при любом числе процессоров в системе.

При анализе специфики используемых параллельных алгоритмов (способов) решения задачи может оказаться полезной оценка стоимости вычислений, определяемой как произведение времени параллельного решения задачи и числа используемых процессоров. Дополнительную информацию для анализа может дать также оценка эффективности En использования параллельным алгоритмом процессоров при решении задачи: En = Rn/n, где n – число процессоров в системе. Очевидно, что в наилучшем случае Rn = n, а En = 1.

Представляет также интерес оценка минимально возможного времени выполнения параллельного алгоритма, которое определяется длиной максимального пути вычислительной схемы алгоритма (или диаметром графа вычислительной модели алгоритма) [6, 7].

Мировые тенденции развития суперкомпьютерных технологий

Исследования суперкомпьютерного рынка показывают, что в списках Тор500 [8] очевидно подавляющее превосходство суперкомпьютеров с кластерной архитектурой и операционной системой ОС Linux. Кластерная архитектура является открытой и масштабируемой, т.е. не накладывает жестких ограничений к программно-аппаратной платформе узлов кластера, топологии вычислительной сети, конфигурации и диапазону производительности суперкомпьютеров. В таких мультипроцессорных параллельных вычислительных системах принципиальным моментом является обеспечение необходимой для реализации соответствующих приложений скорости межпроцессорного обмена данными (выбор системной сети кластера). По-прежнему основными сетевыми интерфейсами – Gigabit Ethernet (GbE) и InniBand (IB). Зачастую порты GbE и IB уже интегрированы в системные платы серверов, используемых в вычислительных узлах кластера.

Технология 10GbE до сих пор остается пока еще довольно дорогой, но уже просматриваются перспективы ее практического использования.

На сегодняшний день явными лидерами рынка процессоров являются две крупнейшие компании: Intel и AMD. Рынок процессоров развивается динамично. Начиная с 2008 года, выход новых поколений процессоров фирмы Intel происходит в соответствии с концепцией Tick-Tock ( ТикТак ). Суть этого принципа (Таблица) заключается в том, что перевод производства на новый технологический процесс и внедрение усовершенствованных версий микроархитектуры происходит поочередно, примерно с двухгодичным циклом [9]. Стратегия Tick-Tock хорошо согласуется с оптимальной периодичностью обновления серверного парка, которая по оценке экспертов фирмы Intel составляет 4 года. Например, новые процессоры семейства Intel Xeon E5 разрабатывались с прицелом на нагрузки, которые будут в 2015 году.

Перспективным направлением развития суперкомпьютерных технологий является создание кластерных конфигураций с использованием гибридных вычислительных узлов на базе классических мультиядерных процессоров с архитектурой х86-64 и графических процессоров (GPU – Graphics Processing Unit).

Таблица – Эволюция технологических процессов

–  –  –

Современные графические процессоры эффективно обрабатывают и отображают компьютерную графику. Непрерывное совершенствование возможностей видеокарт и графических процессоров, привело к тому, что конфигурации на базе GPU могут решать ряд сложных математических задач на порядок быстрее центральных процессоров с классической архитектурой. В настоящее время на процессорном рынке наряду с традиционными процессорами CPU (Central Processing Unit) появились гибридные процессоры APU (Accelerated Processing Unit), объединяющее на одном полупроводниковом кристалле традиционные вычислительные ядра общего назначения (CPU) с графическим ядром (GPU). Оценивая гибридный процессор, необходимо выяснить параметры графического ядра, обратив особое внимание на возможность использования потоковых процессоров (элементы графического ядра) как в графических программах, так и в вычислительных приложениях общего назначения.

Для оптимального выбора процессора необходимо четко сформулировать требования к его основным параметрам: рабочая частота; поддерживаемый объем основной оперативной памяти; объем КЭШа второго и третьего уровней; тип микроархитектуры; технологический процесс; TDP; наличие встроенного контроллера оперативной памяти и его возможности;

наличие графического ядра и его возможности; стоимость процессора; энергоэффективность;

количество ядер процессора; количество операций с плавающей запятой за один рабочий такт, выполняемых ядром; наличие технологии управления энергопотреблением; возможности подсистемы ввода-вывода; сетевые функциональные возможности; наличие интегрированной поддержки USB 3.0; возможности по обеспечению защиты данных; возможность разгона процессора путем увеличения базовой частоты и др. Значимость перечисленных характеристик процессора для принятия решения по его выбору очевидна. В частности, важно помнить, что от технологического процесса зависит тепловыделение и энергопотребление процессоров.

Важным моментом является также оценка сервисных функций процессора с точки зрения управления энергопотреблением суперкомпьютерной конфигурацией в целом. Энергосбережение

– важнейшая тенденция нынешнего рынка суперкомпьютеров. В последних редакциях списка Тор500 появилась графа Потребление электропитания.

Заключение Рынок суперкомпьютерных технологий развивается настолько динамично, что уследить за всеми новинками и угнаться за прогрессом просто невозможно. Одно поколение процессоров, сетевых интерфейсов, периферийных устройств и других компьютерных компонентов через короткое время сменяется новым поколением этих изделий на новом технологическом уровне.

Например, лидеры рынка процессоров - компании Intel и AMD предлагают широчайший выбор моделей любой ценовой категории. И от такой возможности выбора процессоров просто разбегаются глаза. Чтобы принять грамотные перспективные технические и административные решения необходимо знать для чего создается кластер, какие задачи он будет решать, какой объем финансовых затрат возможен при создании конфигурации, а также оценить ряд других важнейших моментов. В настоящей статье сформулированы основные концептуальные принципы для обоснования и выбора базовых техническо-экономических характеристик предметно-ориентированных отраслевых суперкомпьютерных конфигураций с учетом возникновения естественного конфликта возможностей и желаний на начальном этапе проектирования этих изделий. Изложенная методология, подготовленная на базе длительного практического опыта создания суперкомпьютерных моделей семейства СКИФ, может быть использована при разработке конкретной методики обоснования и выбора базовых параметров отраслевых кластеров.

Список литературы

1. Принципы создания базовых конфигураций суперкомпьютерных систем отраслевого назначения / В.В. Анищенко, В.В. Мурашко, Н.Н. Парамонов, О.П. Чиж // Минск: Ежеквартальный журнал Информатика № 1 (33), январь-март 2012 г. Мн: Изд-во ОИПИ НАН Беларуси, 2012. – С. 97–105.

2. Исследования и разработка высокопроизводительных информационно-вычислительных технологий для увеличения и эффективного использования ресурсного потенциала углеводородного сырья Союзного государства. Концепция научно-технической программы Союзного государства.

3. Развитие суперкомпьютерных систем в Республике Беларусь / В.В. Анищенко, А.М. Криштофик, Н.Н. Парамонов, О.П. Чиж // Минск: Доклады четвертой Международной научной конференции Суперкомпьютерные системы и их применение SSA’2012. - 23-25 октября 2012 г. – Мн: Изд-во ОИПИ НАН Беларуси, С. 103-107.

4. Вычислительное дело и кластерные системы / Вл.В. Воеводин, С.А. Жуматий // М.: Издательство Московского университета, 2007. – 150с., ил. ISBN 978-5-211-05440-0.

5. Семейство типовых персональных кластеров СКИФ-Триада (общие технические требования) – ОИПИ НАН Беларуси, Минск, 2008. – С. 17, Анищенко В.В., Жаворонков Д.Б., Качков В.П., Парамонов Н.Н., Рымарчук А.Г., Чиж О.П.

6. Реализация параллельных вычислений: кластеры, грид, многоядерные процессоры, квантовые компьютеры / Г.И. Шпаковский // Мн.: БГУ, 2010, декабрь. – 154 с.

7. Принципы построения параллельных вычислительных систем, курс: Вычислительная математика.

Юрий Фролов, Марина Фроленкова, 10 сентября 2009 [Электронный ресурс]. – Режим доступа: http:

//wiki.auditory.ru/.

8. Список пятисот наиболее мощных суперкомпьютеров мира Top500 [Электронный ресурс]. – Режим доступа: http://www.top500.org/.

9. Intel Ivy Bridge: подробности о микроархитектуре – Digital Daily Digest. Илья Коваль, 20 сентября 2011 [Электронный ресурс]. – Режим доступа: http://www.3dnews.ru/cpu/617138/print.

Анищенко Владимир Викторович, зам. ген. директора ОИПИ НАН Беларуси, к.т.н, anishch@newman.bas-net.by.

Парамонов Николай Николаевич, ведущий научный сотрудник ОИПИ НАН Беларуси, к.т.н, nick@newman.bas-net.by.

Чиж Олег Петрович, зав. лабораторией ОИПИ НАН Беларуси, к.ф-м.н, otchij@newman.bas-net.by.

УДК 004.02:004.9 И. С. АНИЩЕНКО, В. Г. РОДЧЕНКО

АЛГОРИТМ ПОСТРОЕНИЯ КЛАСТЕРНОЙ СТРУКТУРЫ НА ОСНОВЕ

ИСПОЛЬЗОВАНИЯ ЦЕНТРА МАСС ОБРАЗА КЛАССА

При решении реальных задач на основе использования методов распознавания образов исследователи сталкиваются с необходимостью формального представления образов классов в соответствующем многомерном признаковом пространстве. Применение кластерных структур позволяет формализовать процедуру представления образов классов, производить оценку взаимного размещения образов и эталонов классов при построении систем распознавания. В статье рассматривается алгоритм построения кластерных структур на основе использования центра масс образа класса.

Введение

В процессе построения системы распознавания на основе анализа наблюдаемых данных можно выделить три основных этапа.

Подготовительный этап связан с определением алфавита классов, формированием априорного словаря признаков и построением исходной классифицированной обучающей выборки. Соответствующий алфавит классов формируется на основе предварительного анализа требований, предъявляемых к системе распознавания. В априорный словарь должны включаться такие признаки, которые включают наиболее характерные особенности распознаваемых системой классов [2].

Второй этап является центральным и направлен на реализацию процедуры обучения. В результате выполнения из априорного словаря признаков исключаются все малоинформативные признаки, которые не обеспечивают разделение формальных образов эталонов классов в признаковом пространстве принятия решений [6].

Заключительный третий этап связан с выполнением процедуры принятия решения, когда исследуемый образ либо классифицируется к одному из предусмотренных классов, либо выделяется в отдельный джокер-класс [5].

Формально весь процесс распознавания может быть реализован в результате выполнения следующей последовательности преобразований:

S F1 C F2 A F3 T F4 A F5 E F6 R, (1) где S – алфавит классов; С – словарь наблюдаемых (измеряемых) характеристик; A – априорный словарь признаков; T – классифицированная обучающая выборка; A – уточненный словарь признаков для построения пространства решений; E – множество эталонов классов; R – множество решений; F1 – алгоритм получения наблюдаемых характеристик; F2 – алгоритм построения априорного словаря признаков; F3 – алгоритм формирования классифицированной обучающей выборки; F4 – алгоритм сепарирования признаков из априорного словаря по степени их информативности для построения пространства решений; F5 – алгоритм построения образов эталонов классов в пространстве решений; F6 – алгоритм процедуры принятия решения [1].

Для построения систем распознавания разработан ряд алгоритмов, которые позволяют в автоматическом режиме выполнить как процедуру обучения, так и процедуру принятия решений.

Наиболее узким местом, с точки зрения автоматизации, остаются шаги алгоритма, связанные с формированием словаря признаков и представлением результатов распознавания.

Для формального представления образов классов или эталонов классов в многомерном признаковом пространстве предлагается алгоритм построения кластерных структур, который предусматривает предварительное вычисление центра масс.

Постановка задачи

Предположим, что у нас имеются алфавит классов S = {S1, S2,..., Sk } и априорный словарь признаков A = {A1, A2,..., An }, на основе которых уже сформирована классифицированная обучающая выборка [3].

Пусть каждый отдельный объект класса описывается n признаками из априорного словаря признаков в виде вектор-столбца xT = (x1, x2,..., xn ), где xi – значение i-го признака, и однозначно ассоциируется с одним из классов.

Набор объектов отдельного класса образует исходное описание этого класса в априорном признаковом пространстве. Объединение всех объектов из всех классов образует классифицированную обучающую выборку, которая описывается в виде таблицы типа объект-свойство и формально представляется в виде матрицы Xnm, где m = m1 + m2 + · · · + mk, а mi - количество объектов i-го класса.

Для формального представления образов классов предлагается на основе всех экземпляров класса строить соответствующую кластерную структуру. Поскольку каждый отдельный экземпляр класса представляет собой вектор в пространстве Rn c координатами вершины (x1, x2,..., xn ), где xi – значение i-го признака, то объединение всех векторов одного класса в кластерную структуру и будет представлять собой формальное описание класса.

Построение кластерных структур можно осуществить на основании универсального алгоритма, предусматривающего выполнение 4 шагов:

1. Начальная инициализация центров кластеров (например, можно задать начальные значения случайно выбранными точками из пространства, в котором определены данные; можно выбрать случайные точки из входного массива данных и т.д.).

2. E-шаг (expectation): происходит ассоциация между элементами данных и кластерами, которые представлены в виде своих центров (центроидами).

3. M-шаг (maximization): пересчитываются центры кластеров, как средние значения от данных, которые были включены с соответствующий кластер (другими словами, происходит модификация параметров модели таким образом, чтобы максимизировать вероятность попадания элемента в выбранный кластер). В случае, если кластер после шага 2 оказался пустым, то происходит инициализация каким-либо другим способом.

4. Шаги 2-3 повторяются до сходимости, либо пока не выполнится другой критерий остановки алгоритма (например, превышение некоторого числа итераций).

Описание алгоритма Процесс построения кластерных структур может быть организован различными способами.

Например, процесс построения кластерной структуры можно начать с поиска наиболее удаленного от других вектора. Затем необходимо определить ближайший к найденному вектору представитель класса, и включить его в состав кластера. Затем вычисляются и запоминаются значения координат вспомогательного вектора, который указывает на середину отрезка, соединяющего два очередных экземпляра класса. В результате формируется скелет кластерной структуры, который содержит 2 mi 1 векторов, из которых mi векторов-экземпляров i-го класса (где mi - количество объектов i-го класса) и mi 1 вспомогательных векторов. В дальнейшем каждый экземпляр скелета выступает в качестве центра гиперсферы при построении кластерной структуры, представляющей собой объединение областей, образованных пересекающимися гиперсферами [4].

Для формирования кластерной структуры предлагается использовать алгоритм построения кластерной структуры на основе использования центра масс образа класса наиболее приближенной точки для всех экземпляров класса.

Для определения точки, с которой начнется построение кластерной структуры можно использовать различные способы. Например, метод Монте-Карло или выбор наиболее удаленного экземпляра класса и последующее построение по наиболее приближенным к выбранному экземплярам.

Предлагается начать построение со скелета кластерной стуктуры, используя центры масс образов классов. Далее можно воспользоваться методом гиперсфер.

Для формирования скелета кластерной структуры предлагается использовать следующий алгоритм:

1. Находим наиболее удаленные друг от друга экземпляры классов. Соответственно обозначим их 1 и 2.

–  –  –

4. Находим наиболее приближенные к центру масс экземпляры классов X (1), X (2) для каждого из классов 1 и 2. Расстояние между экземпляром класса X (1) и центром масс обозначим l(1), для экземпляра класса X (2) - l(2).

Разделение классов продолжаем до тех пор, пока не останется в точности один экземпляр класса.

Для построения кластерной структуры воспользуемся гиперсферами (далее сферы) радиуса = l2 с центрами в центрах масс кластеров X (1), X (2). Обозначим точку касания двух сфер r(1) (1) (1)

– O(1) с координатами (o1,..., on ) и построим сферу радиуса r(1) с центром в O(1).

Для экземпляра X (2) найдем ближайший экземпляр X (3), и расстояние между центрами масс рассматриваемых экземпляров классов обозначим l(2), причем из поиска исключаем X (1).

(2) Построим сферы радиуса r(2) = l 2 с центрами в X (2), X (3) и получим точку касания сфер (2) (2) O(2) = (o1,..., on ). Построим сферу радиуса r(2) с центром O(2). Поскольку X (2) является центром двух сфер радиуса r(1) и r(2), то для данного экземпляра выбираем сферу с максимальным радиусом.

Рис. 1 – Сферы с центрами X (1), O(1), X (2), O(2), X (3) 20 Область, объединяющая все сферы, в результате и будет представлять собой кластер класса.

Однако стоит отметить, что алгоритм не гарантирует определения лучшего из возможных расположений центров гиперсфер (достижение глобального минимума суммарного квадратичного отклонения), но гарантирует сходимость к какому-либо решению, т.е. итерации не зациклятся.

Заключение

Предложенный алгоритм позволяет получить образ класса в виде кластерной структуры и возможность вычислить объем и плотность кластерной структуры, что позволяет произвести оценку ее компактности.

На основе предложенного алгоритма можно производить оценку взаимного размещения образов и эталонов классов при построении систем распознавания.

Предложенный подход представления образа класса может оказаться наиболее эффективным при построении систем распознавания и экспертных систем.

Список литературы

1. Анищенко И. С. Применение кластерных структур представления классов при построении систем распознавания / И. С. Анищенко, А. И. Жукевич, В. Г. Родченко // Открытые семантические технологии проектирования интеллектуальных систем = Open Semantic Technologies for Intelligent Systems (OSTIS-2013) : материалы III Междунар. научн.–техн. конф., Минск, 21-23 февраля 2013 г. – Минск:

БГУИР, 2013. – С.295-2

2. Васильев, В. И. Проблема обучения распознаванию образов / В. И. Васильев – К: Выща шк. Головное изд-во, 1989.

3. Загоруйко, Н. Г. Прикладные методы анализа данных и знаний / Н. Г. Загоруйко -– Новосибирск:

Изд-во Института математики СО РАН, 1999. 264 с.



Pages:   || 2 | 3 | 4 | 5 |   ...   | 13 |
 


Похожие работы:

«Контакты: тел. (495) 579-96-45, 617-41-83 e-mail: zakaz@id-intellect.ru, id-intellect@mail.ru Cайт: www.id-intellect.ru Почтовый адрес издательства: 141700, г. Долгопрудный, МО, Промышленный проезд, 14. КАТАЛОГ I полугодие 2015 Биомедицинские науки Издательский Дом “Интеллект” 2 Конкурс рукописей 3 Ульмшнайдер П. Разумная жизнь во Вселенной, пер. с англ. 5 Уэй Т. Физические основы молекулярной биологии, пер. с англ. 8 Зевайль А., Томас Дж. Трёхмерная электронная микроскопия в реальном времени,...»

«НАНОТЕХНОЛОГИИ И НАНОМАТЕРИАЛЫ В КОСМОНАВТИКЕ Л.С. Новиков, Е.Н. Воронина Научно-исследовательский институт ядерной физики МГУ E-mail: novikov@sinp.msu.ru Введение На рубеже XX–XXI столетий сформировалась новая стремительно развивающаяся научно-техническая область, которую можно охарактеризовать сочетанием трех понятий: нанонаука, нанотехнология, наноиндустрия. Нанонаука изучает фундаментальные свойства объектов нанометровых размеров (нанообъектов) и связанные с ними явления. К нанообъектам...»

«РУКОВОДЯЩИЙ ДОКУМЕНТ РУКОВОДСТВО ПО КОНТРОЛЮ ЗАГРЯЗНЕНИЯ АТМОСФЕРЫ РД 52.04.186-8 Государственный комитет СССР Министерство по гидрометеорологии здравоохранения СССР МОСКВА 199 Информационные данные 1. РАЗРАБОТАН И ВНЕСЕН Государственным комитетом СССР по гидрометеорологии и Министерством здравоохранения СССР РАЗРАБОТЧИКИ: Ордена Трудового Красного Знамени Главная геофизическая обсерватория им. А.И. Воейкова Госкомгидромета СССР (ГГО). Институт общей и коммунальной гигиены им. А.И. Сысина...»

«УДК 577.15/17 +577.391:577.3 +577.1 Авторам очень приятно написать статью в номер, посвященный памяти выдающегося ученого и прекрасного человека В.И. Гольданского. Виталий Иосифович был первым, кто благословил эти работы и поддержал сотрудников в то время, когда мы другой поддержки не находили. Мы хотим, чтобы эта статья была своеобразным отчетом перед Виталием Иосифовичем.ДЕЙСТВИЕ СВЕРХМАЛЫХ ДОЗ БИОЛОГИЧЕСКИ АКТИВНЫХ ВЕЩЕСТВ И НИЗКОИНТЕНСИВНЫХ ФИЗИЧЕСКИХ ФАКТОРОВ Е.Б. Бурлакова, А.А. Конрадов,...»

«БОЛЕЗНИ ОРГАНОВ ДЫХАНИЯ РАССПРОС (АНАМНЕЗ) И ФИЗИКАЛЬНЫЕ ИССЛЕДОВАНИЯ ПУЛЬМОНОЛОГИЧЕСКИХ БОЛЬНЫХ I. Расспрос (анамнез) 1. Жалобы Жалобы больных с заболеваниями органов дыхания в целях оптимизации диагностического процесса условно подразделяют на основные и дополнительные, или общие. Имеется установленный перечень основных жалоб, которые являются прямым субъективным подтверждением поражения бронхо-легочного аппарата. Это одышка и приступы удушья, кашель, кровохарканье, боли в грудной клетке. При...»

«Московский физико-технический институт Кафедра общей физики Лекция 11 КВАНТОВЫЙ ЭФФЕКТ ХОЛЛА заметки к лекциям по общей физике В.Н.Глазков Москва В данном пособии представлены материалы к лекции по теме «Квантовый эффект Холла» из курса «Квантовая макрофизика», преподаваемого на кафедре общей физики МФТИ. Пособие не претендует на полноту изложения материала и в основном является авторскими заметками к лекциям, оно содержит основные сведения по этой теме курса. Основной материал содержится в...»

«Санкт-Петербургская академия постдипломного педагогического образования Анализ результатов ГИА 2014 года по физике и подготовка учащихся к ГИА 2015 года Г.Н.Степанова, д.п.н., профессор кафедры физико-математического образования СПб АППО,председатель городской предметной комиссии по ОГЭ И.Ю.Лебедева, к.п.н., доцент кафедры физико-математического образования СПб АППО, председатель городской предметной комиссии по ЕГЭ 2014 г.1. Анализ результатов ГИА 2014 года Основные результаты ЕГЭ 1.1....»

«Статистико-аналитический отчет о результатах ЕГЭ ФИЗИКА в Хабаровском крае в 2015 г. Часть 2. Отчет о результатах методического анализа результатов ЕГЭ по ФИЗИКЕ в Хабаровском крае в 2015 году 1. ХАРАКТЕРИСТИКА УЧАСТНИКОВ ЕГЭ Количество участников ЕГЭ по предмету % от общего % от общего % от общего Предмет чел. числа чел. числа чел. числа участников участников участников Физика 1909 24,72 1416 21,29 1406 23,94 В ЕГЭ по физике приняло участие 1406 человек, из которых 73,97% юношей и 26,03%...»

«Список изданий из фондов РГБ, предназначенных для оцифровки в июле 2015 года Естествознание Физико-математические науки Математика Физика. Механика. Астрономия Химические науки Науки о Земле Биологические науки Техника. Технические науки Строительство. Архитектура Транспорт Сельское и лесное хозяйство Здравоохранение. Медицинские науки Социология История. Исторические науки Экономика Общественно-политические организации Государство и право. Юридические науки Военное дело Культура. Наука....»

«Кафедра естествознания организована с 1 сентября 2015 года при реорганизации факультетов физико-математического (1949-2015) и естествознания (1990-2015; в 1934-1978 – географический факультет) и образования единого факультета математики и естествознания. С 1 сентября 2015 г. кафедру возглавляет Шарухо Игорь Николаевич (до этого декан факультета естествознания), кандидат педагогических наук, доцент. Кафедра естествознания создана путем объединения кафедр географии и охраны природы (1996-2015; в...»

«1. Цели и задачи освоения дисциплины Целью курса «Современные проблемы биофизики» является изучение фундаментальных физических взаимодействий, лежащих в основе процессов жизнедеятельности. Курс специальной дисциплины содержит несколько разделов, охватывающих различные аспекты биофизики, в том числе теоретические основы и практическое воплощение методов диагностики биологических сред, математических методов моделирования физических процессов в биотканях, организации на современном уровне...»

«СПИСОК ИЗДАНИЙ, ОТОБРАННЫХ ДЛЯ СКАНИРОВАНИЯ ЕСТЕСТВЕННЫЕ НАУКИ Физико-математические науки Математика Физика Техника. Технические науки Пищевые производства Домашняя кулинария Сельское и лесное хозяйство. Сельскохозяйственные и лесохозяйственные науки Почвоведение СОЦИАЛЬНЫЕ (ОБЩЕСТВЕННЫЕ) И ГУМАНИТАРНЫЕ НАУКИ Социология История. Исторические науки Экономика. Экономические науки Политика. Политология Политология Международные отношения. Внешняя политика. Дипломатия Право. Юридические науки...»

«МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ ФГБОУ ВПО «ОРЛОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ» ВЕСТНИК СТУДЕНЧЕСКИХ РАБОТ ВЫПУСК № Орёл201 Печатается по решению редакционноУДК 94(47)(05)+501(05)+33(05)+0 издательского совета ФГБОУ ВПО ОГУ (протокол № 9 от 24.04.2014г.) Научные редакторы: Пузанкова Е. Н., д. п. н., проректор по научной работе ОГУ, профессор Хрипунов Ю. В., к. ф.-м. н., зам. декана физико-математического факультета по научной, воспитательной работе и заочному обучению,...»

«Министерство образования и науки РФ ФГАОУ ВПО «Казанский (Приволжский) федеральный университет» Институт физики В.М. Безменов Картографо-геодезическое обеспечение кадастра Конспект лекций Казань 2014 Безменов В.М Картографо-геодезическое обеспечение кадастра.Конспект лекций / Безменов В.М.; Казанский (Приволжский) федеральный университет.– Казань. – 39 с Аннотация Предлагаемые лекции предназначены для студентов, обучающихся по направлению «Геодезия и дистанционное зондирование»,...»

«САЙТ СФ ВОЛГГАСУ. Научно-исследовательская работа СФ ВогГАСУ. Себряковский филиал ВолгГАСУ выполняет научные исследования в соответствии с планом научных направлений, утвержденном на Ученом Совете ВолгГАСУ от 27.10.2010 г.: 1.Химическая физика, в том числе физика горения и взрыва (Код направления 01.04.17) 2.Высокомолекулярные соединения (02.00.06) 3.Экономика и управление народным хозяйством (08.00.05) 4. Экология (строительство) (03.02.08) Ведущие учеными первых двух направлений 1.Химическая...»

«Выборы заведующих кафедрами: МАТЕМАТИЧЕСКОГО АНАЛИЗА – 0,25 ставки по совместительству сроком на 3 года. Подано заявлений -1. БУДАЕВ ВИКТОР ДМИТРИЕВИЧ, 1956, доктор физико-математических наук (1993), профессор (1996), декан факультета математики, заведующий кафедрой математического анализа по совместительству. Всего публикаций – 70, из них за отчетный период – 5, в том числе 1 учебно-методическая работа. Основные опубликованные работы по профилю кафедры за отчетный период: «Математический...»

«СПИСОК ИЗДАНИЙ ИЗ ФОНДОВ РГБ, ПРЕДНАЗНАЧЕННЫХ К ОЦИФРОВКЕ В ДЕКАБРЕ 2015 г. Оглавление Общенаучное и междисциплинарное знание 3 Естественные науки в целом 3 Физико-математические науки 5 Химические науки 10 Науки о Земле 12 Биологические науки 17 Техника и технические науки в целом 20 Энергетика 21 Радиоэлектроника 24 Горное дело 27 Технология металлов 27 Машиностроение. Приборостроение 28 Химические технологии. Химические производства 30 Пищевые производства 32 Технология древесины 33...»

«СОДЕРЖАНИЕ Введение 3 1. Исходные данные для выполнения работы 5 2. Материал и методика _11 3. Краткая физико-географическая характеристика района 13 4. Рыбохозяйственное значение р.Дон1 5. Характеристика кормовой базы рыб 23 6. Расчёт ущерба рыбному хозяйству от строительства и эксплуатации мультимодального транспортно-логистического узла «Ростовский универсальный порт»28 Заключение 42 Список использованных источников_44 ВВЕДЕНИЕ Бурное развитие технического прогресса негативно отразилось на...»

«БОРИС НИКОЛАЕВИЧ САДОВСКИЙ 6 августа 2015 года исполнилось два года со дня смерти доктора физико-математических на­ ук, профессора кафедры функционального ана­ лиза и операторных уравнений математического факультета Воронежского университета Бориса Николаевича Садовского. Борис Николаевич Садовский родился в г. Чкалов (в настоящее время г. Оренбург) в семье служащего. Его отец, Николай Вениаминович Са­ довский, профессор, заслуженный деятель науки РСФСР, много лет заведовал кафедрой оператив­...»

«Форма «Т». Титульный лист заявки в РНФ. Конкурс 2014 года «Проведение фундаментальных научных исследований и поисковых научных исследований отдельными научными группами» Название проекта Номер проекта 14-11-0039 Современные методы в теории интегрируемых систем Код типа проекта ОНГ Отрасль знания 01 Основной код классификатора 01-113 Дополнительные коды классификатора 01-111 01-112 Код ГРНТИ 27.35.55 Фамилия, имя, отчество (при наличии) руководителя проекта Контактные телефон и e-mail...»









 
2016 www.nauka.x-pdf.ru - «Бесплатная электронная библиотека - Книги, издания, публикации»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.