아래 내용을 영어 원문으로 읽어보시려면 여기를 클릭하십시오.

 

자동차가 주변 환경과 상호 작용하고, 스마트폰의 카메라가 환경 조건을 고려하여 이미지 품질을 보정하며, 증강 현실 고글이 사용자의 머리, 눈 제스처를 추적하여 특정 컨텐츠를 표시하는 등 시스템이 점점 더 스마트해지는 추세입니다. 이러한 Pervasive Intelligence의 추세는 센서가 어디에나 있기 때문에 가능한 것입니다. 즉, 점점 더 복잡한 시스템에서 구현하기에는 터무니없이 비싸고 힘든 일일 수 있습니다.

자율 주행 차로 간단히 예를 들어보겠습니다. 차량의 자율 주행 시스템이 효과적으로 작동하려면 수백만 마일을 주행하여 차량이 직면할 수 있는 모든 상황에 대한 "이해"가 있어야하고, 여기에는 내장된 센서로 캡처한 환경의 광범위한 매핑이 포함되어야 합니다.

이를 위한 방법은 물리적 센서를 장착한 다수의 자동차를 수동으로 배치하여 샌프란시스코와 같은 도시의 도로를 주행하면서 수백만 장에 달하는 이미지를 기록하는 것입니다. 이를 위해서는 차량 배치부터 운전자 고용, 광활한 도로 주행에 이르기까지 상당한 시간과 재정적 지출을 고려합니다. 

이에 반해, 가상 센서와 고성능 컴퓨팅 기술을 활용하면 실제 주행과 관련된 위험을 최소화 할 수 있습니다. 가상 센서의 장점과 활용 가능성 등에 대해 자세히 알아보시려면 아래 내용을 계속 읽어보십시오. 

automotive-autonomous-virtual-sensor.jpg

What is a Virtual Sensor?

가상 센서가 무엇인가요?

가상 센서는 디지털 트윈 개념에 뿌리를 두고 있습니다. 이름에서 알 수 있듯이 물리적 센서가 주변 환경에서 "보는" 것을 기반으로 데이터를 생성하는 반면, 가상 센서는 제 3의 정보를 기반으로 계산하거나 추론합니다. 이 데이터는 환경을 대표하는 역할을 하며, 1D, 2D 또는 3D을 기반으로 할 수 있으며 가상 센서는 센서가 카메라일 때 이를 처리하여 디지털 이미지로 변환합니다. 

가상 센서가 칩과 최종 제품 설계자의 친구 같은 역할을 할 수 있는 시나리오는 여러가지가 있습니다. 카메라의 변수를 예로 들어보겠습니다. 이 원리는 LiDAR 및 레이더와 같은 모든 물리적 센서에 적용될 수 있습니다.

한 예로, 가상 카메라는 특정 자율 주행 차량 모델에 대한 실 카메라의 사양을 결정하는 데 도움이 될 수 있습니다.

  • 흑백 아니면 컬러 중 어떤 것을 택할지? 
  • 픽셀 수는 몇개여야 하는지? 
  • 최적의 심도 (Depth of Field) 는 얼마인지? 
  • 최상의 정보를 얻기 위해서 이 카메라를 차량의 어느 위치에 배치 시킬지? 

픽셀 수, 컬러 밸런스, 시그널 처리 등을 조정하면서 가상 카메라로 실험하면 값비싼 시제품에 비용을 들이지 않고도 위와 비슷한 질문에 대한 해답을 얻을 수 있습니다. 

설계 단계에서 카메라는 렌즈, 센서, 이미지 시그널 프로세서 등 세가지 이상의 요소로 구성될 수 있습니다. 가상 카메라는 최종적인 이미지 품질을 시뮬레이션하여 이러한 구성 요소의 상호 작용을 테스트하고 올바른 조합을 설정 할 수 있습니다.  

Virtual Sensors in Testing and AI Model Development

테스트 및 AI 모델 개발의 가상 센서

설계가 끝나면 이제 카메라를 현장에서 테스트 할 차례입니다. 윈드 스크린 뒤나 사이드 미러에 가상으로 설치하면 최종 제품이 작동하는 환경에서 어떻게 보일지, 궁극적으로 차량에 통합되었을 때 얼마나 잘 작동할지 정확하게 파악할 수 있습니다.

가상 센서가 활용되는 또 다른 부분은 카메라가 감지하는 환경을 해석하는 AI 모델을 개발하는 것입니다. 도로 표지판이나 보행자와 같은 요소의 가상 이미지를 통해 모델을 훈련하고 개발할 수 있으므로 광범위한 물리적 정보 수집이 필요하지 않습니다. AI 모델이 완전히 형성되면 실제 카메라에서 이를 활용하여 자율주행 차량이 정상적으로 작동할 수 있도록 할 수 있습니다. 

요약해서 얘기하자면, 가상 센서가 실제 자율 주행 차량이 대응해야 할 시나리오를 찾아내거나 발생하기를 기다리는 대신에 직접 시나리오를 생성할 수 있습니다. (예를 들어, 도로 한가운데서 공을 따라 뛰어나오는 어린이가 있을 경우 어떻게 대응할지, 긴급 엠뷸런스 차량에 어떻게 양보할지 등의 상황) 자동차 칩 설계 분야에서 디지털 트윈 모델과 가상 센서는 OEM사의 증가하는 요청과 성능 요구 사항을 충족하기 위한 아키텍처 탐색, 소프트웨어 개발, 하드웨어 및 소프트웨어 통합, 실리콘 출시 전 시스템 온 칩 (SoC) 검증, 반도체 모델의 테스트 및 검증에서 점점 더 중대한 역할을 할 것으로 예상됩니다.   

이와 동시에, 고사양의 칩, 카메라, 발전된 자동차 기술에도 불구하고 자율주행차가 아직 도로에 널리 보급되지 않았다는 점도 주목할 필요가 있습니다. 무엇보다도 시스템 전체가 처리해야 하는 데이터의 양이 여전히 장애물로 남아 있습니다. 현재 자율주행차는 데이터를 간소화 할 수 있는 완전한 시스템으로 설계되기보다는 구성 요소 별로 설계됩니다. 카메라, 전자 제어 장치 (ECUs), 환경 측면에서 가상화는 구성 요소의 상호 의존성을 파악하고 벽을 허물어 팀워크와 시스템 최적화를 개선하는 데 도움이 될 수 있습니다.

Virtual Sensor Applications and Tools

가상 센서 애플리케이션 및 설계 툴

자율 주행 자동차의 개발은 아직 진행 중이지만, 가상 센서와 디지털 트윈의 활용 분야는 자동차에서 스마트폰, 증강 현실과 같은 소비자 애플리케이션, 항공 우주 및 방위 산업과 같은 분야로 확장되고 있습니다. 이러한 맥락에서 디지털 트윈은 반도체 서브 시스템의 가상 렌더링을 제공하고 통합 하드웨어 및 소프트웨어 시스템이 어떻게 작동하는지 보여줍니다. 

디지털 트윈 기반 개발의 핵심이자 가장 큰 해결해야할 어려움은 모델의 신뢰성과 주어진 가상 센서의 정확성입니다. 가상 개발 및 테스트가 생산성을 획기적으로 향상시킬 수 있다는 연구 결과가 있으므로 이를 개선하는 것이 우선 순위입니다.

이를 위해 Synopsys는 개발자에게 광학 센서 설계 및 테스트를 위한 CODE V, LightTools, LucidShape, RSoft가 포함된 Synopsys Optical Platform, Multicore SoC 및 Multi-die SoC 아키텍처의 분석 및 최적화를 위한 Synopsys Platform Architect™, 가상 하드웨어를 사용하여 pre-RTL 소프트웨어 개발을 지원하는 Synopsys Virtualizer™, 소프트웨어 개발자에게 즉각적인 피드백을 제공하여 시스템 설계 및 검증을 지원하는 Synopsys Silver 등의 다양한 툴을 제공합니다.

백엔드 시스템 개발부터 자율주행 혁명을 가능하게 할 프론트엔드 기술까지, 미래의 비전을 현실로 만드는 데 성공하는 조직에서 정확한 가상화 역량은 점점 더 중요한 자질이 될 것입니다.