본문 바로가기
IT뉴스

AI를 위한 보안과 투명성의 균형

by romydady 2023. 4. 28.

<출처 : Pexels>

책임 있는 인공 지능(AI) 의 핵심 구성 요소인 보안은 복잡한 주제입니다. 한편으로, 개인 데이터를 무단 액세스, 사용 또는 공개로부터 보호하는 데 도움이 되기 때문에 개인 데이터를 사용하는 모든 AI 시스템에는 우수한 보안이 필수적입니다. 반면에 보안 조치는 때때로 투명성 및 설명 가능성과 같은 책임 있는 AI 원칙과 충돌할 수 있습니다 . 예를 들어, 데이터를 암호화하면 AI 시스템의 작동 방식을 이해하기가 더 어려워질 수 있으며, 이로 인해 시스템이 결정에 대해 책임을 지게 하는 것이 더 어려워질 수 있습니다.

궁극적으로 책임 있는 AI의 목표는 안전하고 공정한 AI 모델을 개발하고 배포하는 것입니다. 이를 위해서는 서로 다른 원칙과 고려 사항의 신중한 균형이 필요합니다. 단 하나의 "올바른" 답변은 거의 없으며 최상의 접근 방식은 특정 사용 사례에 따라 달라질 수 있습니다. 개별 기업에서 이른바 레드팀을 조직하고 관리해 온 다양한 보안 분야의 전문가 패널이 최근 RSA 컨퍼런스 2023에서 이러한 상충되는 문제에 대해 논의했습니다.

반응형

챗GPT가 만든 새로운 세계

무료(물론 유료도 있지만)로 사용할 수 있는 ChatGPT, Bard, Bing 및 기타 AI 봇의 출현으로 상황이 전반적으로 변경되었습니다. Bias Buccaneers의 Rumman Chowdhury는 “우리는 6개월된 완전히 다른 세상에 살고 있습니다."라고 언급했습니다. 데이터 과학자와 개발자를 위한 핵심 중 하나는 현실 세계에서 사용할 수 있도록 올바른 최신 AI 모델을 얻는 것입니다. 그러면 보안이 개입하여 네트워크에 대혼란을 일으키려는 침입자로부터 모델을 보호할 수 있습니다. 예를 들어 이번 달 현재 ChatGPT의 마인드스토어에는 아직 2022년 또는 2023년 데이터가 포함되지 않았습니다.

보안이 책임있는 AI의 핵심 부분임을 보장하기 위한 몇 가지 주요 과제는 다음과 같습니다.

  • 데이터 프라이버시(Data Privacy) : AI 시스템은 훈련 및 운영을 위해 많은 양의 개인 데이터(PII)에 의존하는 경우가 많습니
  • 편향(Bias) : AI 시스템은 편향되어 불공정하거나 차별적인 결과를 초래할 수 있습니다. 보안 조치는 AI 시스템의 작동 방식을 이해하기 어렵게 만들 수 있으므로 편견을 악화시킬 수 있습니다.
  • 설명 가능성(Explainability) : AI 시스템은 설명 가능해야 사용자가 작동 방식을 이해하고 사용에 대해 정보에 입각한 결정을 내릴 수 있습니다. 보안 조치는 때때로 AI 시스템의 작동 방식을 설명하기 어렵게 만들 수 있습니다. 문제는 이 상충하는 두 항목이 서로를 이해하고 레거시 경계를 넘어 협업을 가능하게 하는 것입니다.

책임있는 AI에서 데이터 프라이버시 보장

데이터 프라이버시는 탁월한 보안의 핵심 결과입니다. AI 소프트웨어 제조업체가 알아야 할 주요 사항 중 하나는 비공개 정보 또는 규제된 데이터를 사용하는 대규모 데이터 모델이 공개적으로 사용 가능한 양에 관계없이 철저히 보호되는지 확인하는 것입니다. Vijay Bolina, Deep Mind 레드 팀 이사는 아래와 같이 말했습니다.

“예방적 사고방식으로부터 생각해야 합니다. 내 모든 데이터 세트와 데이터 계획에서 이 작업을 어떻게 수행할 수 있습니까? 이것은 모든 사람에게 기본이 되어야 합니다.”라고 Bolina는 말했습니다.

Nvidia 의 레드팀 책임자인 Daniel Rohrer는 AI 개발자가 AI 책임 애플리케이션에서 잘 작동하려면 보안을 위한 공통 코덱이 필요하다고 말했습니다. “(보안 소프트웨어)의 우수한 엔지니어링은 아마도 이 모든 것에서 가장 중요한 측면일 것입니다. 코드 자체에서 엔지니어링, 법률 및 사용자가 필요로 하는 것 사이의 격차를 해소하는 것이 중요합니다.”

 

반응형

댓글