С развитием автоматизированных автомобилей возникает проблема их безопасности от кибератак
Представьте себе, что вы едете по шоссе, и вдруг ваши тормоза резко срабатывают, двигатель глохнет, а двери запираются. Хакер удаленно завладел вашим автомобилем.
Предотвращение этого гипотетического сценария находится в центре внимания автопроизводителей во всем мире. По мере того как автомобили наполняются компьютеризированными узлами, они также становятся уязвимыми для кибератак и утечек конфиденциальности, по крайней мере, в некоторой степени.
Профессиональные хакеры в рамках исследования продемонстрировали, что они могут атаковать компьютеризированные технологии в автомобилях. Французская охранная компания Synacktiv на ежегодном соревновании по взлому компьютеров Pwn2Own доказала, что может взломать информационно-развлекательную систему электромобиля.
Этот сектор кибербезопасности становится все более важным для исследований, особенно по мере того, как достижения в области искусственного интеллекта (ИИ) проникают в автомобильную промышленность.
«Если у вас есть классический автомобиль с почти полным отсутствием компьютеров, то почти нет шансов, что кто-то сможет удаленно управлять вашим автомобилем. Но сейчас, с развитием и широкой интеграцией вычислительных устройств в современные автомобили, мы думаем о вещах по-другому», – сказал М. Хади Амини, доцент Школы вычислительной техники и информационных наук Фонда Найта в Инженерно-вычислительном колледже.
Амини является экспертом в разработке алгоритмов машинного обучения, искусственного интеллекта и оптимизации, а также в адаптации их к реальным приложениям, включая здравоохранение, национальную безопасность и устойчивость инфраструктуры. Он исследует, как интегрировать ИИ в сложные системы, учитывая кибер-, физические и социальные перспективы в лаборатории устойчивого развития, оптимизации и обучения для взаимозависимых сетей (солидная лаборатория).
Амини возглавляет университетское исследование искусственного интеллекта для Национального центра транспортной кибербезопасности и отказоустойчивости, который финансируется Министерством транспорта США.
Потенциал искусственного интеллекта в транспортных средствах, по-видимому, велик — некоторые водители уже используют эту технологию для полуавтономного управления своими транспортными средствами, — но эта технология также ставит новые задачи.
Одним из ключевых направлений является хранение информации о водителях. ИИ нужны ваши данные для принятия более взвешенных решений. Итак, Амини изучает, может ли чья-то личная информация быть уязвимой в случае взлома автомобиля.
По данным Федеральной торговой комиссии, электронная система автомобиля может хранить:
Таким образом, возникает серьезная проблема кибербезопасности для автомобильной промышленности. Если центральный сервер сети автомобилей будет взломан, будет ли это означать, что личная информация каждого водителя в этой сети будет захвачена?
«Конфиденциальность — это первая из многих проблем, с которыми мы столкнемся при применении классических алгоритмов искусственного интеллекта к транспортным средствам», — сказал Амини. «Водители автономных транспортных средств захотят использовать ИИ, чтобы помочь своим автомобилям работать лучше. Вопрос в том, как водители гарантируют, что их данные останутся конфиденциальными, в то время как автопроизводители используют эти данные для повышения производительности транспортных средств?»
«Если мы сможем внедрить ИИ ответственно, с сохранением конфиденциальности и безопасностью, тогда мы сможем лучше контролировать эти атаки».
По словам Амини, алгоритмы, на которых основан искусственный интеллект, нуждаются в данных. Они становятся хорошими в том, что они делают, имея много примеров, на которых можно учиться. Но все это обучение должно где-то происходить. Его нужно вычислить. Это часто происходит на централизованном мощном сервере.
Амини изучает способ использования ИИ без необходимости просить всех водителей в сети передавать свои данные в центральное место. Он исследует более децентрализованную форму ИИ, которая не будет так сильно полагаться на один центральный сервер. Вместо этого многие обязанности по вычислениям и обучению будут оставлены на усмотрение отдельных автомобилей. Автомобили сами обрабатывали данные и выдвигали предложения по улучшению своих алгоритмов.
Эти предложения, не содержащие необработанных данных, затем передавались на серверы, которые помогали улучшить общий алгоритм для всех устройств в сети. Результат: сеть ИИ, из которой труднее украсть личную информацию.
Амини изучает эту форму ИИ и подобные вычислительные алгоритмы уже около десяти лет. Сегодня этот тип ИИ наиболее известен как федеративное обучение — название, которое Google придумала в 2016 году.
По словам Амини, этот стиль ИИ может не только защитить конфиденциальность водителей, но и обеспечить более эффективные и масштабируемые вычисления с растущим числом автомобилей.
«При централизованном машинном обучении, если мы потеряем питание центрального сервера во время атаки или стихийного бедствия, вся система выйдет из строя. Но когда мы работаем в распределенном машинном обучении, остальная часть системы может работать и продолжать функционировать в течение некоторого времени, опираясь на местные данные», — сказал Амини.
Также он добавил, что, хотя ни одна компьютеризированная система не может быть на 100% безопасна, исследования в области федеративного обучения открывают многообещающий путь для автопроизводителей, чтобы извлечь выгоду из достижений в области искусственного интеллекта, защищая личную информацию водителей и обеспечивая безопасную работу транспортных систем от кибератак.
Представьте себе, что вы едете по шоссе, и вдруг ваши тормоза резко срабатывают, двигатель глохнет, а двери запираются. Хакер удаленно завладел вашим автомобилем.
Предотвращение этого гипотетического сценария находится в центре внимания автопроизводителей во всем мире. По мере того как автомобили наполняются компьютеризированными узлами, они также становятся уязвимыми для кибератак и утечек конфиденциальности, по крайней мере, в некоторой степени.
Профессиональные хакеры в рамках исследования продемонстрировали, что они могут атаковать компьютеризированные технологии в автомобилях. Французская охранная компания Synacktiv на ежегодном соревновании по взлому компьютеров Pwn2Own доказала, что может взломать информационно-развлекательную систему электромобиля.
Этот сектор кибербезопасности становится все более важным для исследований, особенно по мере того, как достижения в области искусственного интеллекта (ИИ) проникают в автомобильную промышленность.
«Если у вас есть классический автомобиль с почти полным отсутствием компьютеров, то почти нет шансов, что кто-то сможет удаленно управлять вашим автомобилем. Но сейчас, с развитием и широкой интеграцией вычислительных устройств в современные автомобили, мы думаем о вещах по-другому», – сказал М. Хади Амини, доцент Школы вычислительной техники и информационных наук Фонда Найта в Инженерно-вычислительном колледже.
Амини является экспертом в разработке алгоритмов машинного обучения, искусственного интеллекта и оптимизации, а также в адаптации их к реальным приложениям, включая здравоохранение, национальную безопасность и устойчивость инфраструктуры. Он исследует, как интегрировать ИИ в сложные системы, учитывая кибер-, физические и социальные перспективы в лаборатории устойчивого развития, оптимизации и обучения для взаимозависимых сетей (солидная лаборатория).
Амини возглавляет университетское исследование искусственного интеллекта для Национального центра транспортной кибербезопасности и отказоустойчивости, который финансируется Министерством транспорта США.
Потенциал искусственного интеллекта в транспортных средствах, по-видимому, велик — некоторые водители уже используют эту технологию для полуавтономного управления своими транспортными средствами, — но эта технология также ставит новые задачи.
Одним из ключевых направлений является хранение информации о водителях. ИИ нужны ваши данные для принятия более взвешенных решений. Итак, Амини изучает, может ли чья-то личная информация быть уязвимой в случае взлома автомобиля.
По данным Федеральной торговой комиссии, электронная система автомобиля может хранить:
- Телефонные контакты
- Данные для входа в мобильное приложение
- Данные о местоположении
- Коды гаражных ворот
Таким образом, возникает серьезная проблема кибербезопасности для автомобильной промышленности. Если центральный сервер сети автомобилей будет взломан, будет ли это означать, что личная информация каждого водителя в этой сети будет захвачена?
«Конфиденциальность — это первая из многих проблем, с которыми мы столкнемся при применении классических алгоритмов искусственного интеллекта к транспортным средствам», — сказал Амини. «Водители автономных транспортных средств захотят использовать ИИ, чтобы помочь своим автомобилям работать лучше. Вопрос в том, как водители гарантируют, что их данные останутся конфиденциальными, в то время как автопроизводители используют эти данные для повышения производительности транспортных средств?»
«Если мы сможем внедрить ИИ ответственно, с сохранением конфиденциальности и безопасностью, тогда мы сможем лучше контролировать эти атаки».
По словам Амини, алгоритмы, на которых основан искусственный интеллект, нуждаются в данных. Они становятся хорошими в том, что они делают, имея много примеров, на которых можно учиться. Но все это обучение должно где-то происходить. Его нужно вычислить. Это часто происходит на централизованном мощном сервере.
Амини изучает способ использования ИИ без необходимости просить всех водителей в сети передавать свои данные в центральное место. Он исследует более децентрализованную форму ИИ, которая не будет так сильно полагаться на один центральный сервер. Вместо этого многие обязанности по вычислениям и обучению будут оставлены на усмотрение отдельных автомобилей. Автомобили сами обрабатывали данные и выдвигали предложения по улучшению своих алгоритмов.
Эти предложения, не содержащие необработанных данных, затем передавались на серверы, которые помогали улучшить общий алгоритм для всех устройств в сети. Результат: сеть ИИ, из которой труднее украсть личную информацию.
Амини изучает эту форму ИИ и подобные вычислительные алгоритмы уже около десяти лет. Сегодня этот тип ИИ наиболее известен как федеративное обучение — название, которое Google придумала в 2016 году.
По словам Амини, этот стиль ИИ может не только защитить конфиденциальность водителей, но и обеспечить более эффективные и масштабируемые вычисления с растущим числом автомобилей.
«При централизованном машинном обучении, если мы потеряем питание центрального сервера во время атаки или стихийного бедствия, вся система выйдет из строя. Но когда мы работаем в распределенном машинном обучении, остальная часть системы может работать и продолжать функционировать в течение некоторого времени, опираясь на местные данные», — сказал Амини.
Также он добавил, что, хотя ни одна компьютеризированная система не может быть на 100% безопасна, исследования в области федеративного обучения открывают многообещающий путь для автопроизводителей, чтобы извлечь выгоду из достижений в области искусственного интеллекта, защищая личную информацию водителей и обеспечивая безопасную работу транспортных систем от кибератак.