Ускорение обучения глубокой нейронной сети путем оптимизации алгоритма для запуска на MIC архитектуре
Глубокие нейронные сети позволяют получить высокую точность распознавания, но требуют больших вычислительных мощностей и временных затрат в процессе обучения. Второе связано с тем, что алгоритм обучения является итертивным. Целью исследования является изучение эффективности решения данной задачи на MIC архитектуре без изменения базового алгоритма. Для повышения эффективности работы программы на MIC архитектуре были использованы приемы векторизации и распараллеливания кода. В процессе исследования были опробованы 2 модели передачи данных на сопроцессор: явная и неявная и проведено сравнение их эффективности. Рассмотрены причины, влияющие эффективность распараллеливания данной задачи. MIC архитектура показала показала производительность, сравнимую с многоядерным процессором.
Bibtex
@inproceedings{sveshnikova2016mic, title={Ускорение обучения глубокой нейронной сети путем оптимизации алгоритма для запуска на MIC архитектуре}, author={Е.А. Милова and С.Ю. Свешникова and И.Г. Ганкевич}, publisher={Издательский дом Федоровой Г.В.}, booktitle={Труды 47-й международной научной конференции аспирантов и студентов}, url={http://hdl.handle.net/11701/2609}, year={2016}, month={01}, language={russian}, issn={2313-7304}, pages={367--371}, number={1}, volume={3}, address={СПб, Россия}, editor={Смирнов, Н.В.}, type={inproceedings} }
Publication: Труды 47-й международной научной конференции аспирантов и студентов
Publisher: Издательский дом Федоровой Г.В.