내용요약 나체 사진 자동 블러 처리·잠재적 성범죄자 계정 식별
18세 미만 사용자에는 기본 적용
인스타그램이 과도한 노출 사진과 성 착취 범죄에서 청소년들을 보호하고, 잠재적 범죄자와의 접촉을 어렵게 만드는 기능을 개발 중이다. / 메타 제공
인스타그램이 과도한 노출 사진과 성 착취 범죄에서 청소년들을 보호하고, 잠재적 범죄자와의 접촉을 어렵게 만드는 기능을 개발 중이다. / 메타 제공

[한스경제=박정현 기자] 사회관계망서비스(SNS) 인스타그램이 인공지능(AI)을 통해 과도한 노출사진 등을 차단할 수 있는 청소년 보호 강화 장치를 내놨다. 

인스타그램 모기업인 메타플랫폼은 과도한 노출 사진이 동의없이 보여지는 것을 제한하고, 성착취 범죄에서 청소년들을 보호하는 기능을 개발 중이라고 11일(현지시간) 밝혔다.

메타는 인스타그램 다이렉트 메시지(DM) 시스템에서 미성년자에게 전송되는 누드 이미지를 자동 블러 처리하는 AI 기반의 도구(tool)을 시험 중이다. 나체 사진이 포함된 이미지는 자동으로 흐리게 처리되고, 수신자가 이를 볼지 말지 선택할 수 있다.

이 기능은 18세 미만의 사용자에게는 기본으로 적용된다. 성인에게는 알림을 보내 이 기능을 적용하도록 권장된다. 또 이러한 이미지를 보낸 사람을 차단하고 채팅을 신고할 수 있는 옵션을 제공하고, 이런 식으로 접근하는 사람에겐 응하지 않아도 된다는 안내 메시지도 표시한다.

아울러 메타는 잠재적으로 성 착취 사기에 연루될 수 있는 계정을 식별하는 데 도움이 되는 기술을 개발 중이라고 밝혔다.

메타의 이 같은 조치는 미국 당국의 압박이 가중되는 상황에서 나왔다.

지난해 10월 미국 내 41개 주 정부는 인스타그램 등이 과도한 중독성을 갖도록 설계돼 미성년자의 정신건강에 피해를 주고 있다며 메타를 상대로 소송을 제기했다.

박정현 기자

관련기사

키워드

#인스타 #메타 #AI
저작권자 © 한스경제 무단전재 및 재배포 금지