아이티윌 K-디지털 기초역량훈련 온라인 센터

메뉴

이지채널

  • [이지채널] AI의 두 얼굴: 선거를 위협하는 AI와 국제적 규제 현황
  • / 2024.04.11

안녕하세요?

 

이번에는 한국 외교부에서 작성한 "생성형 AI, 세계의 선거를 위협하다"을 글을 토대로 AI가 선거에서 

발생 되는 문제점과 각국의 정잭과 규제에 대해 말씀드리겠습니다.

(참고자료: https://blog.naver.com/mofakr/223398242193)

 

 

[생성형 AI가 선거 과정에서 사용될 때 발생할 수 있는 문제점]

  1.    - 가짜 뉴스와 정보의 확산:

  2.       생성형 AI를 사용하여 사실이 아닌 정보나 왜곡된 뉴스를 만들어낼 수 있으며,

  3.        이는 선거에 영향을 미칠 수 있는 유권자들의 의견 형성에 부정적인 영향을 줄 수 있습니다.

  4.  
  5.    - 개인 및 공적 인물의 이미지 조작:

  6.       후보자들의 이미지나 음성을 조작하여 가짜 동영상이나 오디오 클립을 생성할 수 있으며,

  7.       이는 유권자들에게 혼란을 야기하고 선거의 공정성을 해칠 수 있습니다.

  8.  
  9.    - 선동적 콘텐츠의 생성과 확산:

  10.       특정 후보나 정당에 유리하거나 불리하게 작용할 수 있는 선동적인 콘텐츠를 대량으로 생성하고

  11.       확산시킬 수 있으며, 이는 공정한 선거 환경을 저해할 수 있습니다.

  12.  
  13.    - 유권자 프로파일링과 타깃팅:

  14.       생성형 AI를 사용하여 개인의 데이터를 분석하고, 이를 바탕으로 맞춤형 선거 캠페인 메시지를

  15.       생성하여 유권자들을 대상으로 한 타깃팅이 이루어질 수 있습니다. 이는 개인의 사생활 침해 문제를 야기할 수 있습니다.

 

 

[방지 대책]

  1.    - 기술적 검증 도구의 개발과 적용:

  2.       가짜 뉴스나 조작된 이미지, 동영상을 탐지하고 식별할 수 있는

  3.        AI 기반 검증 도구를 개발하여 널리 적용해야 합니다.

  4.    - 정보의 출처와 진위 여부에 대한 교육:

  5.       유권자들이 정보의 출처를 확인하고, 정보의 진위 여부를 판단할 수 있는 능력을 기르도록 하는

  6.       교육 프로그램을 시행해야 합니다.

  7.  
  8.    - 규제와 정책의 마련:

  9.       선거 과정에서 생성형 AI의 사용을 규제하기 위한 법적, 정책적 장치를 마련해야 합니다.

  10.       이는 AI가 생성한 콘텐츠의 출처 표시 의무, 가짜 정보 생성 및 확산에 대한 법적 책임 강화 등을 포함할 수 있습니다.

  11.  
  12.    - 공개적인 투명성과 책임성 강화:

  13.       선거 캠페인에 사용되는 AI 기술과 관련된 정보를 공개하고, 해당 기술의 사용에 대한 책임을 명확히 해야 합니다.

  14.  
  15.    - 국제적 협력과 기준 마련:

  16.       생성형 AI와 관련된 문제는 국경을 넘어 발생할 수 있으므로, 국제적인 협력을 통해 공통의 기준과 대응 방안을 마련해야 합니다.

      선거의 공정성을 유지하고 유권자의 정보 접근성과 투명성을 보장하기 위해서는 기술적, 법적, 교육적 방안이 복합적으로 모색되어야 합니다.

 

 

 

[각국에서 시행 또는 준비하고 있는 규제와 정책들]

 

   ※ 유럽연합

        유럽연합은 투명성과 책임성을 높이는 것을 요구하는 포괄적인 AI 법률을 통해 선도하고 있습니다.

        이 법안은 특정 AI 사용을 고위험으로 분류하고 이러한 것들에 대해 엄격한 규제를 부과합니다. 

        여기에는 투명한 문서화 및 감사 절차의 요구, 데이터 대표성을 확보하고 편향을 최소화하기 위한 요구 사항이 포함됩니다.

        또한 이 법안은 GPT-4와 같은 강력한 AI 모델이 추가적인 기준을 충족해야 한다고 언급하며, 이는 위험 완화와 보안과 관련된 기준을 포함합니다.

        추가적으로, AI 손해 책임 지침을 통해 AI 기술로 인해 피해를 입은 사람들이 재정적 보상을 받을 수 있도록 하는 작업이 진행 중입니다.

        이 입법 프레임워크는 유럽연합의 시장력 때문에 사실상 전 세계 표준을 설정하고 있습니다​ (MIT Technology Review)​.

 

 ※ 영국

        영국은 AI 규제에 대해 혁신 친화적인 입장을 취하고 있으며, 기존 규제 프레임워크를 활용하여 안전, 투명성, 공정성, 책임성을 기반으로

        AI 기술을 관리하는 데 중점을 두고 있습니다. 정부는 단기적으로 특정 AI 법률을 도입하지 않겠다고 강조했으며, 대신 원칙 기반의

        AI 거버넌스 접근 방식을 채택했습니다. 그러나 영국은 AI 안전에 관한 국제 정상회담을 주최했으며, 이로 인해 AI 위험에 대한 공유 이해를

        수립하고 이러한 위험을 국제적으로 공동 관리할 필요성을 강조하는 블레치리 선언이 도출되었습니다​ (Tech Monitor)​.

 

   ※ 중국

        중국의 AI 규제 접근 방식은 더 분화되어 있으며, 신기술에 대한 즉각적인 대응에 초점을 맞추고 있습니다. 중국은 알고리즘 추천 서비스 및

        딥페이크와 같은 AI의 다양한 측면에 대해 구체적인 입법을 도입했습니다. 전면적인 인공지능 법이 입법 의제에 올라 있으며,

        이는 EU의 AI 법과 유사하게 AI 개발 및 사용의 모든 측면을 다루려고 합니다.

        제안된 법은 국가 AI 사무소 설립, 기반 모델에 대한 연간 독립적인 "사회적 책임 보고서" 요구, 정부 승인 없이는 연구할 수 없는

       고위험 AI 분야의 "부정적 목록"을 설정하는 것을 제안합니다. 기존 규정에 따라, 모든 기반 모델은 공개 출시 전에 정부에 등록해야 합니다​ (MIT Technology Review)​.

 

  ※ 미국

        미국은 AI 규제에 부문별 접근 방식을 취하고 있습니다. 바이든 행정부는 국가 안보에 대한 잠재적 위협을 평가하고 보고하도록

        주요 AI 개발자에게 요구하는 행정 명령을 발표했습니다. 이 접근 방식을 통해 미국은 특정 부문에서 AI의 함의를 다루면서 산업 내에서

        혁신과 발전을 촉진할 수 있습니다​ (Tech Monitor)​.

 

 

        이러한 다양한 접근 방식은 각 지역의 우선 순위를 반영하는 AI 기술 규제의 글로벌 환경 복잡성을 강조합니다.

        EU와 중국은 포괄적인 규제 프레임워크를 선택한 반면, 영국과 미국은 각각 유연하고 원칙 기반, 부문별 규제에 중점을 두고 있습니다.

        이러한 전략들은 개인 권리를 보호하고 혁신을 촉진하는 것에서부터 국가 통제를 유지하고 국가 안보를 확보하는 것에 이르기까지 다양한 목표를 반영합니다.

 

 

첨부파일