구글, 메타, 오픈AI 등 주요 AI 기업들이 최근 아동 안전 문제에 대한 대책 마련에 나섰습니다. 이들은 AI 기술이 아동에게 미칠 수 있는 부작용을 방지하기 위한 공동 노력에 착수했습니다.
AI 기술의 급속한 발전으로 인한 부작용 우려가 높아지고 있습니다. 특히 아동들이 AI 채팅봇이나 생성 AI 등에 무분별하게 노출될 경우 유해 콘텐츠에 접촉하거나 부적절한 정보를 습득할 위험이 있습니다.
이에 구글, 메타, 오픈AI를 비롯한 주요 AI 기업들은 ‘아동 보호를 위한 윤리 실천 강령’을 발표했습니다. 이 강령에는 AI 시스템 개발 시 아동 보호를 최우선 고려사항으로 삼고, 아동 이용 환경 조성에 만전을 기할 것 등의 원칙이 포함되어 있습니다.
구체적으로 AI 제품과 서비스에 아동 보호 기능을 탑재하고, 연령 제한이나 부모 통제 등 안전장치를 마련하기로 했습니다. 아울러 정부 및 아동 보호 단체들과 협력하여 AI 윤리 기준을 지속적으로 강화해나갈 계획입니다.
이번 조치는 AI 기술이 가져올 수 있는 부작용에 대한 우려를 반영한 것입니다. AI 기업들이 자정 노력에 나선 것은 바람직하지만, 충분한 안전 장치가 만들어질지는 지켜봐야 할 것입니다.
한편, 일각에서는 이번 합의가 주요 AI 기업 중심으로 이루어졌다는 점에서 공정성 시비가 있을 수 있다는 지적도 나오고 있습니다. 향후 윤리 기준 수립에 다양한 이해관계자의 참여가 필요할 것으로 보입니다.