본문바로가기
  • BUSINESS
  • PRODUCT
  • CUSTOMER
  • COMMUNITY

제 목 자율주행차의 AI 시스템에 대한 사이버보안
등록일 2021-03-10
첨부파일

<사진 출처 : freepik.com>



 

최근 글로벌 자동차기업과 IT 기업들이 자율주행차 시장에 진입하고 신차 개발에 박차를 가하면서 자율주행차 시장이 가빠르게 성장하고 있다. 자율주행차는 장애인, 노약자에게도 안전한 운행을 제공하고, 운전자들이 자율주행차를 운행할 때 자유로움과 편리성을 누릴 것으로 기대되고 있으며, 교통사고나 환 경오염 등 다양한 사회적 이슈에 대한 해결도 기대되고 있다. 자율주행차에서 전통적인 자동차 기술이 AI(인공지능) 기술과 접목하여 자동화(Automation)가 진전되 고, AI 기술이 진화하면서 자동차가 인간과 같이 인지-판단-제어를 통해 주변상황을 자율적으로 인지하여 차량속도나 방향을 결정하고, 차량부품들을 자율적으로 통제하면서자율성(Autonomy)이 향상된다. 한편, 자율주행차는 AI 시스템을 기반으로 운행방법을 결정하므로 AI 알고리즘 오류나 기능상의 장애 가 발생하는 경우 자율주행차의 판단 착오가 발생하여 안전사고 등 운전자, 보행자에게 치명적인 위험을 초래할 수 있다. 현재 국제자동차기술자협회(SAE International)의 분류 기준에 따르면 세계적인 자율주행차 기업들의 자율주행 기술 수준은 4단계에 진입하고 있는 것으로 평가되고 있으며, 4단계부터는 운전에 대한 책임 이 운전자 보다는 차량시스템에 더욱 의존하기
때문에 4단계 이상의 자율주행차이 본격적으로 운행되면 AI 시스템의 안전과 보안성은 더욱 중요해질 전망이다.

자율주행 환경의 AI 위험요소

자율주행차의 AI 시스템은 머신러닝 기술을 사용하여 데이터를 수집, 분석,
전송하여 기존 자동차에서 인간이 하던 결정을 직접 내릴 수 있다.

자율주행차는 교통사고의 주요 원인 중 하나인 운전자를 대체함 으로써 교통사고와 사망자의 감소효과를 기대하고 있으나,

오히려 자율주행차에서는 운전자, 승객, 보행 자에게 완전히 다른 유형의 안전위험을 초래할 수 있다.

특히 자율주행차에서 AI 의존도가 증가하면서 차량의 디지털화가 증가하고 사이버공격 표면이 확대되어 공격자가 자율주행차를 집중적인 표적으로 삼 아 공격을 시도할 수 있다. 또한 자율주행차에 대한 사이버공격은 AI 시스템뿐만 아니라 차량자체의 디 지털 시스템과 네트워크 인프라를 대상으로 할 수 있다. 자율주행차에서 AI 위협은 의도적 및 비의도적 유형으로 분류할 수 있다. 의도적 위협은 피해를 유발 하기 위해 AI 및 머신러닝(ML)의 취약성을 의도적으로 악용하는 공격이다. 의도적인 AI 오남용은 새로 운 유형의 취약점을 발생시키고, 잠재적인 위험을 초래하며

현재의 사이버보안 환경의 변화를 요구한다. 사이버공격이 의사결정을 자동화하는AI 및 ML 시스템의 보안결함과 취약성을 이용하여 공격을 감행하 는 경우 AI 및 ML 시스템은 중요한 결정에 관여하는 경향이 있기 때문에 사이버공격으로 인한 안전문제에 심각한 영향을 미칠 수 있다. 또한 사이버범죄자는 AI를 사용하여 공격을 자동화하여 저 비용으로 보다 신속하고, 대규모 공격을 정밀하게 감행할 수 있다.반면 의도하지 않은 위협은 현재의 AI 및 ML 방법의 신뢰성, 견고성, 안전성 관련 내재적인 기능적 취약점으로 발생하는 부작용으로 발생한다. 즉 AI 및 ML의 단점, 설계 오류나 내부 특성으로 인한 예측할 수 없는 오작동, 중단 등이 의도하지 않은 위협을 발생시킨다.

① 도로표지판 인식 및 차선 감지 이미지 처리 모델에 대한 악의적 행위

공격자들은 도로표시판(정지, 속도 제한 표지판 등)의 그림에 대한 변경, 차선에 대한 변경, 스티커 배 치, 빛의 투영 등 차량 주변의 물리적 환경의 변경으로 혼돈을 유발시켜 자율주행차가 주변환경에 대해 오류정보를 인식하도록 유도할 수 있다. 이러한 공격으로 인해 자율주행차는 주변환경에 대한 인식 착오 로 오작동이 발생할 수 있다. 이러한 공격에 대한 대응으로는 악의적 공격에 대비한 보안 견고성 강화, 하드웨어 중복 메커니즘 사용, 다중 센서와 같은 데이터 중복 메커니즘 사용, 센서에서 수집한 기호 정 보와 차량에 저장된 디지털지도의 정보와 비교하여 데이터 유효성 검사 수행, 판독한 기호 정보를 수신 하기 위해 V2X 통신을 사용 방법 등이 있다.

② 계획 모듈에 대한 중간자(Man-in-the-Middle) 공격

공격자가 차량의 헤드유닛(HU)에서 원격으로 악용할 수 있는 취약점을 발견하고, 인터넷을 통해 보안 이 취약한 차량의 헤드유닉을 원격으로 침투할 수 있다. 공격자가 일단 헤드유닉 내부에 침입하면 차량 내 네트워크에 접근하기 위해 측면이동(Lateral Movement) 기법을 이용할 수 있다. 공격자는 또한 차 량 유지보수 기간에 내부 네트워크에 직접 접근할 수도 있다. 차량의 내부 네트워크가 차량부품을 제대 로 인증하지 못하는 경우 변조된 모듈을 삽입하여 인터넷통신에 대한 가로채기(Hijacking)를 할 수 있 다. 공격자는 이러한 유리한 지점에서 인식 모듈이 출력하는 환경에서 중간에서 가로채는 중간자 공격을 수행할 수 있다. 이러한 공격에 대한 대응으로는 일반적 사이버보안 원칙을 따라 AI와 관련이 없는 사이 버 체인 요소에 대한 보호를 강화, 악의적인 머신러닝 이용에 대비한 보안 견고성 강화, 하드웨어 중복 메커니즘 사용 방법 등이 있다.

③ 정지 신호 감지에 대한 데이터 중독(Data Poisoning) 공격

운행 중인 자율주행 자동차는 회사에 정보를 지속적으로 전송하며, 공격자가 차량의 정보전송이 많은 특정상황(차량이 결정할 때 불확실성이 높은 상황)을 악용하여 제조업체의 정기적인 자율주행차의 AI 모 델 업데이트를 할 때 AI 모델 내부에 예기치 않은 동작을 주입할 수 있다. 차량 업데이트 후 공격자는 공격표적의 교통신호 표시를 수정하여 자율주행차가 잘못된 행동을 취하도록 속일 수 있다. 이러한 공격 에 대한 대응으로는 악의적인 머신러닝 이용에 대비한 보안 견고성 강화, 하드웨어 중복 메카니즘 사용, 차량 표지판의 인증 등이 있다.

④ OEM 백엔드 서버 해킹 후 악성 펌웨어를 대규모 유포하는 공격

OEM 직원(개발자 등) 또는 백엔드 서버에 침투할 수 있는 외부공격자는 원격으로 악용할 수 있는 취 약점을 발견하고 백엔드 서버에서 악성 AI 펌웨어를 배포하고, AI 모델의 악성 OTA(Over-the-air) 업데 이트를 실행할 수 있다. 이때 AV는 펌웨어가 신뢰할 수 있는 서버에서 시작되기 때문에 합법적인 요소 로 착오할 수 있다. 이러한 공격은 이미지 인식 기능을 조작하거나 자율주행차가 도로나 횡단보도를 건 너는 보행자에게 피해를 끼칠 수 있어 거리에 혼란을 초래할 수 있다. 이러한 공격에 대한 대응으로는 보안 통제와 보안 패치 정기적으로 평가, 차량 및 백엔드 수준에서 침입탐지시스템(IDS) 배포, 안전한 기기와 소프트웨어 설치와 변경, CSIRT 구축, 백엔드 서버에서 보안통제와 사고 보고, OTA 업데이트 프 로세스 보호, 보안감사 등 다양한 방법을 적용할 수 있다.

⑤ 센서 / 통신 트래픽 혼잡 및 GNSS 스푸핑 공격

공격자는 무선 네트워크에 많은 트래픽을 유발하여 센서의 메시지 수신을 방해하고, 차량이 차량-사물 (V2X) 메시지를 전송하거나 수신할 수 없도록 한다. 공격자는 또한 오류신호(피해자 수신기에서 잘못된 위치 기반 정보를 생성하려는 의도로 GNSS(Global Navigation Satellite Systems) 유사 신호)를 방출 하여 통신을 스푸핑하거나 무선센서를 악용하여 통신 채널에 부정적인 영향을 미칠 수 있다. 이로 인해 대상 센서에 의존하는 AI 모델에 문제를 발생시켜 차량기능에 문제를 유발할 수 있으며, GNSS 스푸핑 의 경우 AI 알고리즘에 의도적으로 오류정보를 제공하여 차량기능과 관련하여 잘못된 결정을 내리도록 할 수 있다.



<사진 출처 : freepik.com>




 

자율주행 환경의 AI 보안 도전과제와 권장사항
 

① AI 모델 및 데이터의 체계적인 보안 검증

데이터는 머신러닝 모델 학습에서 AI 시스템을 구축하고 검증할 때 중요한 역할을 하므로, 자율주행차 상황에서 공격자들의 데이터 조작을 통해 예기치 않은 혼란과 피해를 방지하기 위해 체계적인 데이터 유효성 검사가 필요하다. 이에 따라 전 세계적으로 자율주행에 사용되는 데이터의 특수성에 맞게 데이터 거버넌스 체계의 확립이 요구되고 있다. 또한 AI 모델은 시간의 경과에 따라 변경될 수 있으므로 AI 모 델 수명주기 전반에 걸쳐 체계적으로 데이터에 대한 관리가 수행되어야한다. 그러나 실제적으로 AI 모델 의 체계적인 검증은 어려운 과제이며, 데이터 종속성과 모델 복잡성을 고려하고, 데이터의 품질과 신뢰 성을 보장하기 위해 광범위한 체계적인 검증을 수행하여 AI 모델에 대한 보안성과 견고성을 체계적으로 평가하고 시험하여야 한다.

② AI 사이버보안과 관련된 공급망 문제

소프트웨어 및 하드웨어 공급망의 보안은 사이버보안에서 특히 중요하며, AI 구성요소의 공급망 전반 에 걸쳐 적절한 보안정책과 전략이 없으면 복원력이 미흡하고 보안사고가 발생할 수 있다. 공급망 전체 에서 보안 거버넌스를 보장하려면 개발자, 제조업체, 공급자, 벤더, 네트워크 사업자, 보험, 이용자 등 다 양한 이해관계자들의 참여가 요구된다. 최근 AI 시스템이 자율주행차 공급망 전반에 활용되면서 자동차 공급망 전반에서 AI 관련 보안위험이 발생할 수 있다. 자율주행차에서 전자제어장치(ECU)를 통합하는 새로운 플레이어(테슬라 등)가 있지만 대부분의 차량제조업체는 타사의 ECU에 의존하므로 여러 제조업 체의 ECU를 사용한다. 이에 따라 복잡한 자동차 공급망에서 견고하고 안전한 AI 모델이 부족하면 사이 버 보안과 관련하여 심각한 우려를 유발하고, 사이버보안 사고로 인해 전체 자동차 생태계에 커다란 위 협에 직면할 수 있다.

③ AI 사이버보안을 기존의 사이버보안 원칙과 통합하기 위한 단대단 총체적 접근방식

자율주행차에서 빠르게 진화하는 위협에 대응하기 위해 AI 시스템에 대한 보호의 필요성이 증가하고 있으며, 특히 기존의 사이버보안 원칙과 새로운 AI 사이버보안을 통합할 필요가 있다. 자율주행차의 AI 의존도가 증가하면 AI 알고리즘을 표적으로 삼은 공격이 증가하고, 이러한 인한 심각한 피해가 예상된 다. 이러한 공격을 효과적으로 대처하기 위해 AI 시스템의 다양성과 상호작용을 고려한 포괄적인 접근방 식, AI 시스템의 모든 단계를 고려하는 통합된 보안 체계, 심층적인 방어전략 적용 등이 필요하다. 차 량시스템이 보안을 고려하여 설계 및 개발되어도 시간이 지남에 따라 장비가 추가, 소프트웨어와 주요 기능의 변경이 발생하므로 생면주기 전반의 통합적인 보안 접근이 필요하며, 전체 AI 생명주기에서 AI 시스템 변조 방지, 모든 단계 간의 상호인증 및 기밀성과 무결성 보장이 필요하다.

④ AI와 관련된 사고처리 및 취약성 발견과 교훈

많은 조직에서 보안취약성에 대한 광범위한 인식제고 활동에서 불구하고, 특히 AI 시스템의 취약성에 대한 보안인식과 대응노력은 상당히 미흡한 수준이다. AI 보안 위험에 대한 충분한 지식이 없거나 위험 을 과소평가하는 인식이 팽배하면 AI 보안 위험을 증폭시킬 수 있다. 사이버보안 상황에 대한 잘못된 인 식을 개선하기 위해서는 인식제고 교육이 필수적이다. 자율주행차에서 AI 기반의 디지털 구성요소와 관 련된 사이버 보안사고 처리와 대응계획을 고려해야한다. 자동차 분야에서 보안 사고에 대한 경험이 부족 한 행위자가 많아지면서 시스템의 잠재적 취약성과 시스템에 내재된 근본적인 위협을 이해할 수 있는 사이버보안 문화를 구축해야 할 필요성이 제기된다. 자율주행차 공급망에 관련된 모든 이해관계자는 위 험과 공격을 사업운영에 연관시킬 수 있도록 증가하는 AI 위협 환경을 인식해야하며, AI 보안사고로부터 배운 교훈을 전파하여 전체 공급망에 걸쳐 보안 프로그램 개발을 촉진할 필요가 있다.

⑤ 자동차산업의 AI 사이버보안에 대한 제한된 역량과 전문지식

AI 사이버보안에 대한 개발자와 시스템 설계자 사이에 충분한 보안지식과 전문지식 부족은 자동차 부 문의 보안통합을 방해하는 주요 장벽으로 작용한다. 개발자의 AI 지식 부족은 공격자가 자율주행차의 AI 구성요소를 표적으로 삼아 공격할 수 있는 단초를 제공한다. 예를 들어 개발 프로세스에 AI 구성요소와 관련된 보안 테스트 및 코드분석이 포함되지 않거나, AI 시스템 설계자가 응용 분야에 대한 전문지식 부 족으로 보안설계가 미흡할 수 있다. 개발자가 보안 설계 및 구현에 대한 인식이 미흡하면 개발 단계에서 보안에 대한 고려가 미흡하거나 오류 등으로 소프트웨어가 작동할 때 악용될 수 있는 취약성을 초래할 수 있다.

<사진 출처 : freepik.com>

 

결론 및 시사점

전 세계으로 자율주행차의 시장 확대가 빠르게 진전되고 자율주행차 관련 위험에 대한 우려도 지속적 으로 제기되는 상황에 맞이하여JRC·ENISA는 자율주행 환경에서의 AI 시스템에 대한 사이버보안 관련 보고서를 통해 자율주행차의 AI 보안을 개선하고 잠재적인 위협을 분석하여 사이버보안 사고를 사전에 예방하기 위한 효과적인 권장사항을 제공하였다. 이 보고서는 자율주행차에 대한 보안을 위해 미래 환경 위험 시나리오를 예측하고, 대응방안을 고려할 필요가 있다고 강조하고 있으며, 자율주행 환경의 사이버 보안 위해 기존의 사이버보안 방법론과 함께 AI 시스템에 특화된 사이버보안 방법론을 융합함으로써 효 과적인 보안 구현이 가능하다고 설명하고 있다. 이와 같은 국내외 상황을 맞이하여 국내외 자율주행차 산업의 진흥을 위해 신기술 개발과 사이버보안 역의 균형적인 발전이 요구되고 있다.

특히 자율주행차에서 필요한 AI 기술에 대한 연구개발을 강화하는 동시에 AI 시스템 관련 위험요인을 사전에 분석하고 자율자동차 제조과정에서 보안설계를 수행할 수 있 도록 관련 기술개발과 법제를 강화할 필요가 있다. 이와 함께 기존 국내에서 사이버보안을 담당하는 기관들과 자율주행차 제조기업, 물리적 보안을 담당하는 기업, 정책입안자, 이용자 등 모든 이해관계자들이 협업하여 새로운 위험요인을 예측하고, 안전대책을 마련하기 위한 거버너스 체계를 마련하며, 지속가능 한 협력체계 구축 등이 긴요한 시점이다.



 

<출처 : 한국인터넷진흥원>

 
이 전 다 음
목록