Журнал "Information Security/ Информационная безопасность" #4, 2018

Сейчас на первый план выходят именно нейронные сети. Несмотря на то что, как и искусственный интел- лект в целом, нейронные сети развиваются с середи- ны прошлого века, только в последние годы они стали действительно активно использоваться. Это связа- но, с одной стороны, с нали- чием доступных для обра- ботки и обучения нейронных сетей больших объемов дан- ных, а с другой – с появле- нием достаточных вычисли- тельных мощностей, кото- рые позволяют такие объе- мы данных обрабатывать, прежде всего с использова- нием графических ускорите- лей и нейроморфных про- цессоров типа IBM Tru- eNorth. Зародившееся в сере- дине XX в. направление искусственного интел- лекта объединяет широ- кий спектр научных областей, таких как представление знаний, обработка естествен- ных языков, машинное обуче- ние и др. Наибольшее внимание со сто- роны разработчиков в настоя- щее время привлекают именно системы машинного обучения. В отличие от классических алго- ритмических методов машинное обучение основывается не на решении конкретной задачи, а на обучении при решении сход- ных задач и уже последующем решении требуемой задачи. Спектр используемых методов при этом чрезвычайно широк: методы оптимизации, матема- тической статистики и теории вероятностей, теории графов, искусственных нейронных сетей. Сейчас на первый план выхо- дят именно нейронные сети. Несмотря на то что, как и искус- ственный интеллект в целом, нейронные сети развиваются с середины прошлого века, толь- ко в последние годы они стали действительно активно исполь- зоваться. Это связано, с одной стороны, с наличием доступных для обработки и обучения ней- ронных сетей больших объемов данных, а с другой – с появле- нием достаточных вычисли- тельных мощностей, которые позволяют такие объемы дан- ных обрабатывать, прежде всего с использованием гра- фических ускорителей и ней- роморфных процессоров типа IBM TrueNorth. Как и при использовании любой другой технологии, отно- сящейся к сфере обработки информации, перед специали- стом в области информацион- ной безопасности встает вопрос о возможных угрозах и мерах по противодействию таким угрозам при использо- вании систем искусственного интеллекта. В информационной безопас- ности использование искус- ственного интеллекта обычно принято рассматривать в кон- тексте противодействия суще- ствующим кибератакам, таким, например, как фишинг, DDoS- атаки и др., или как средство, которое может обеспечить качественно новый уровень реализации таких атак 2 при использовании злоумышленни- ками. Одновременно, как и любой другой технологии использо- ванию искусственного интел- лекта сопутствует широкий спектр неизвестных ранее угроз, которые простираются от социальных и этических проблем 3 , связанных с ограничением гражданских свобод и плюрализма мнений при автоматизации принятия решений, а также ответствен- ностью за их последствия, до безопасности технической реа- лизации решений, использую- щих искусственный интеллект, и касающихся, например, обеспечения доверия к про- цессу принятия решения или безопасности обрабатываемых данных 4 . 6 • В ФОКУСЕ Игры искусственного разума: безопасность систем машинного обучения о данным PricewaterhouseCoopers 1 , 74% российских компаний планируют инвестировать в искусственный интеллект в ближайшие три года. Действительно, в настоящее время данная технология рассматривается в мире как способ качественного изменения процессов управления и обработки данных в организациях. П Григорий Маршалко, эксперт ТК 26, эксперт ISO/IEC JTC1/SC 27 1 Ускорение инновационного развития. Уверенность в реализации возможностей искусственного интеллекта, https://www.pwc.ru/ru/publications/artificial-intelligence-realizations.html 2 The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, https://www.eff.org/deeplinks/2018/02/mali- cious-use-artificial-intelligence-forecasting-prevention-and-mitigation 3 Summary of the CDEP technology foresight forum. Economic and social implications of artificial intelligence, http://oe.cd/ai2016 4 A Berkeley View of Systems Challenges for AI, https://arxiv.org/abs/1712.05855 Рис. 1. "Отравление" данных (data poisoning)

RkJQdWJsaXNoZXIy Mzk4NzYw