본문 바로가기

IT

EU, 생성형 AI에 대한 통합 규정 준비: ChatGPT 등

반응형

유럽연합(EU)은 올해 말까지 ChatGPT를 포함한 생성형 인공지능(AI)에 대한 통합 규정 마련을 준비하고 있다. 유럽연합 집행위원회(European Commission)의 부의장인 Margrethe Vestager에 따르면 규제법 초안이 올해 안에 만들어지고 2023년 말에 유럽이사회와 유럽의회에 제출될 것이라고 한다. 

 

EU, 생성형 AI 통합 규제

 

 

 

생성형 AI 규제의 필요성

생성형 AI는 사람의 입력 없이 컴퓨터가 텍스트, 이미지, 비디오와 같은 콘텐츠를 생성할 수 있게 해주는 기술이다. 이 기술은 빠르게 발전하고 있으며 의료, 금융, 교육 등 다양한 분야에서 활용되고 있다. 그러나 이 기술은 개인 정보 침해, 편향된 의사 결정 및 가짜 콘텐츠 생성을 포함하여 상당한 위험을 초래한다. 

 

EU는 생성형 AI의 개발이 책임 있고 잠재적인 위험이 관리되도록 규제할 필요성을 인식하고 있다. 이 규정은 생성 AI를 위험 수준에 따라 4단계로 나누고 고위험 AI 서비스는 출시 전에 EU 당국의 검토를 받게 된다.

 

이러한 규정은 AI 진화를 억제하지 않고 올바른 방향으로 안내하면서 잠재적 위험을 관리하는 동시에 AI 개발이 계속되도록 보장하는 것을 목표로 한다. 이 규정은 투명성, 책임성 및 안전성을 촉진하여 기업이 정해진 표준을 준수하도록 요구하여 책임감 있고 투명하며 안전한 방식으로 AI 기술을 개발할 수 있도록 한다.  

 

 

 

생성형 AI 규제의 4단계

EU의 생성형 AI 규제는 위험도에 따라 4단계로 나뉜다. 

1 단계: 가상 비서와 같이 위험이 거의 또는 전혀 없는 AI 애플리케이션을 포함하는 최소 위험.

2 단계: 신용 스코어링 알고리즘과 같이 약간의 위험을 초래하는 AI 애플리케이션을 포함하는 제한된 위험.

3 단계: 의료 진단 알고리즘과 같이 상당한 위험을 초래하는 AI 애플리케이션을 포함하는 고위험.

4 단계: 자율 무기와 같이 너무 위험하다고 판단되는 AI 애플리케이션을 금지.

 

 

 

생성형 AI 레이블 지정 및 설명

사용자가 생성형 AI로 만든 콘텐츠가 진짜인지 식별할 수 있도록 콘텐츠에 "Made with AI" 또는 "이것은 실제 사진이 아닙니다."라는 라벨을 붙일 것을 권장하고 있다. 유럽연합 집행위원회(European Commission)의 부의장인 Margrethe Vestager는 또한 AI 회사가 제품을 설명하고 "AI가 왜 그런 결정을 내렸는가?", "회사 차원에서 어떤 윤리적 가드레일이 마련되어 있나?"와 같은 질문에 답할 의무가 있어야 한다고 제안했다. 

 

생성형 AI의 레이블 지정 및 설명은 투명성을 높이고 사용자가 정보에 입각한 결정을 내리는 데 도움이 된다. 또한, AI 회사가 제품에 대해 책임을 지게 하고 의도하지 않은 결과의 위험을 줄이는 데 도움이 된다. 

 

 

 

개인정보 보호와 디지털 시장 및 서비스법 적용

Margrethe Vestager는 개인정보 보호와 관련해 EU의 기존 데이터보호법과 관련 제도를 종합적으로 활용할 수 있다고 설명했다. 또한, Open AI, Google, Microsoft와 같은 생성형 AI를 선도하는 회사가 EU 경쟁법 규제의 대상이 될 수 있다고 지적했다. 이를 통해 공정한 경쟁이 이루어지고 어느 한 회사가 시장을 지배하지 않도록 할 것임을 의미한다. 

 

EU의 기존 데이터 보호법 및 관련 시스템은 개인 정보 보호를 보장한다. 개인 정보를 수집하거나 처리하는 회사는 개인 데이터를 수집, 처리 및 저장할 수 있는 방법에 대한 엄격한 규칙을 설명하는 일반 데이터 보호 규정(GDPR)을 준수해야 한다.

 

또한, 디지털 시장법과 디지털 서비스법을 적용해 생성형 AI가 경쟁을 저해하지 않고 유해정보가 확산되지 않도록 한다. 디지털 서비스법은 기업에 유해정보 확산 방지 조치를 의무화하고, 디지털 시장법은 생성형 AI가 경쟁을 방해하거나 억제하는 경우에 활용된다.

 

 

반응형

 

 

진화하는 AI와 아이들의 교육

AI는 빠르게 진화하고 있으며, 생성형 AI의 확산과 다양한 기술 응용으로 Auto GPT같은 편리한 기능들이 짧은 시간 안에 쏟아져 나오고 있다. AGI(Artificial General Intelligence) 시대가 곧 도래할 것이라는 의견에 많은 전문가들이 긍정적인 답변을 보고하고 있다. 

 

AI가 유비쿼터스(Ubiquitous, 사용자가 컴퓨터나 네트워크를 의식하지 않고 장소에 상관없이 자유롭게 네트워크에 접속할 수 있는 환경)인 세상에서 아이들이 성장해 가며 새로운 것을 만들 수 있는 창의력과 개성을 키우는 것이 중요하다. AI는 우리 삶의 많은 측면을 개선할 수 있는 잠재력을 가지고 있지만, 그것을 만들고 사용하는 것은 사람이며 AI는 이러한 과정의 효율적이고 효과적인 도구라는 것을 기억하는 것이 중요하다. 

 

아이들의 창의성과 개성을 키우는 교육을 위해 비판적 사고, 문제 해결, 창의성과 같은 기술을 강조하는 것이 중요하며, 이러한 기술을 통해 아이들은 AI를 자신의 창의적 능력을 키울 수 있는, 혹은 해결해야 하는 문제에 접근할 수 있는 도구로 사용되어야 할 것이다. 

 

또한, 아이들에게 AI의 한계와 인간의 가치, 윤리의 중요성에 대해 가르치는 것이 중요하다. 이를 통해 아이들은 AI가 인간의 판단을 대체할 수 없으며, AI 응용 프로그램의 윤리적 의미를 고려하는 것이 중요하다는 것을 이해하게 될 것이다 

 

아이들에게 AI 교육의 또 다른 중요한 측면은 아이들이 성장 마인드셋(a growth mindset)을 개발하도록 격려하는 것이다. 아이들의 잠재력은 그 끝을 알 수 없으며 노력과 헌신을 통해 개발되고 성장하게 될 것이다. 성장 마인드셋을 가진 아이들은 새로운 기술을 받아들이고 위험을 감수하며 실패로부터 배우려는 의지가 더 커질 것이다. 

 

마지막으로 협업과 팀워크의 중요성을 강조하는 것이 중요하다. AI는 효과적인 솔루션을 개발하기 위해 다양한 분야의 전문가를 모으는 학제 간 접근 방식(interdisciplinary approaches)이 필요하다. 협력의 중요성을 강조함으로써 아이들은 팀으로 일하고 복잡한 문제에 대한 혁신적인 해결책을 개발할 수 있도록 더 잘 준비될 것이다. 

반응형