내용요약 AI 확산에 리스트도 부각…세계적으론 규제 강화 움직임 
세계적으로 전(全) 산업군에 인공지능(AI) 도입이 확대되면서 동시에 리스크도 함께 부각되기 시작했다. /연합뉴스
세계적으로 전(全) 산업군에 인공지능(AI) 도입이 확대되면서 동시에 리스크도 함께 부각되기 시작했다. /연합뉴스

[한스경제=이성노 기자] 세계적으로 전(全) 산업군에 인공지능(AI) 도입이 확대되면서 이와 관련된 리스크도 함께 부각되고 있다. 이에 관련 규제도 강화되고 있는 가운데 금융권에선 AI의 잠재적인 위험을 관리하기 위한 거버넌스 체계 구축 및 데이터 관리 고도화가 필요하며, 인재 및 기술투자 같은 원칙 중심의 대응이 필요하다고 보고 있다.  

하나금융경영연구소에 따르면, AI 시장은 생성형 AI를 중심으로 전 산업군의 다양한 업무에 도입 및 적용되고 있다. 생성형 AI는 학습된 데이터를 이용해 문장·영상·프로그램 코드 등을 새롭게 생성하는 기능을 가진 인공지능을 말한다. 

지난해 생성형 AI가  등장한 이후 올해에는 약 70%에 가까운 기업이 이를 활용하고 있다. 글로벌 컨설팅사인 맥킨지(Mckinsey)의 설문조사에 따르면, 생성형 AI는 마케팅 및 영업(도입율:34%), 제품 및 서비스 개발(23%), IT부서(17%) 등에서 활용되고 있다. 

아울러 서류 검토 등 채용프로세스의 자동화로 비용 절감, 수요 예측 및 재고 관리 효율화에 따른 공급망 관리를 통한 매출 증대 등, AI활용을 통한 가시적인 가치 창출 사례가 본격화되기 시작했다. 

관련 시장 규모 역시 빠르게 성장하고 있다. 글로벌 생성형 AI 시장의 규모는 2021년 79억달러였으며, 2022년부터 연평균 34.3%가 성장해 2030년에는 1108억달러에 이를 것으로 예상된다. 2022년 글로벌 AI 시장의 규모는 1198억달러였으며, 연평균 38.1%가 성장해 2030년에는 1조5910억달러에 달할 것으로 평가되고 있다.

국내 금융 AI 시장은 2019년 3000억원에서 2021년 6000억원으로 45.8%가 증가했으며, 2026년까지 연평균 38.2%가 성장해 3조2000억원의 시장을 형성할 것으로 보고 있다. 

금융권에서는 인공지능을 통해 방대한 양의 데이터 처리 및 새로운 수익을 창출하는 것은 물론, 금융 소비자에게 향상된 개인화 서비스를 제공하는 것을 비롯해 고객의 경험·가치 제고를 기대할 수 있다. 또한 업무 프로세스 자동화 등을 통해 운용비용을 절감할 수 있으며 복잡한 금융 규제와 컴플라이언스 요구사항에 효과적으로 대응할 수 있다. 

다만 새로운 기술이 빠른 속도로 업무영역에 도입되다 보니 이에 따른 리스크 관리의 중요성도 커지고 있다. 

국제통화기금(IMF)는 보고서를 통해 'AI 활용이 금융업에 새로운 리스크의 온상이 될 수 있다'며 금융업의 AI 리스크로 △데이터 프라이버시 △내재된 편견 △금융인파라로서의 견고성·확실성 △설명책임 △사이버보안·악용리스크 △금융시스템의 안정성 등을 거론했다. 

금융권에서는 AI의 과용 오작동 등으로 공정성 및 설명 가능성 부족, 개인정보 보호 및 사이버보안 위협 등을 잠재적인 위험 요소로 꼽고 있다. 

또한 최근에는 딥페이크(deepfake)로 인한 범죄 등, 부작용이 속출하고 있다. 국내에서는 딥페이크로 인한 성범죄 사건이, 해외에서는 조 바이든 미국 대통령이나 도널드 트럼프 전 대통령 관련 딥페이크 목소리, 비디오 등이 사회적 물의를 일으키고 있다. 

글로벌 회계법인인 '딜로이트'는 보고서를 통해 미국의 생성형 AI 기반 금융사기 피해액은 2023년 123억달러에서 연평균 32% 증가해 2027년에는 400억달러에 이를 것으로 전망했다.  

이에 AI 경쟁력을 제고하기 위해 전세계적으로 규제를 강화하려는 움직임이 활발하게 나타나고 있다. 

대표적으로 유럽연합(EU)은 AI를 파괴적 잠재력을 가진 디지털 혁신으로 간주하고 정부가 개입해 개인의 기본권을 보호하고, 시장의 공정성을 보존하기 위한 노력을 펼치고 있다. 

EU는 개인정보를 보호하는 일반데이터 보호규정, 빅테크 등 디지털 게이트키퍼의 의무를 강화한 디지털시장법, 온라인 플랫폼의 콘텐츠 책임을 규정한 디지털 서비스법 등을 시행하고 있다. 

미국은 지난해 'AI 행정명령'을 발표하고, 연방정부의 역할과 책임, 주요 조치사항을 규정했다.일본은 최근 리스크가 증대되고 있다고 판단, ‘AI제도연구회’를 출범시켜 본격적인 법제화를 시작했다. 

우리나라는 지난 2019년 AI 강국을 비전으로 'AI국가전략'을 수립한 이후 각 부처에서 관련된 정책을 수립하고 계획을 마련하고 있다.

2020년에는 AI 역기능 방지에 초점을 둔 ‘AI 법·제도·규제 정비 로드맵’을 발표했으며, 올해에는 새로운 디지털 질서 정립 추진계획’을 발표하고 AI와 관련된 핵심과제로 기술의 안정성, 신뢰·윤리 확보, 딥페이크를 활용한 가짜 뉴스 대응, AI개발·활용 관련 저작권 제도 정비 등을 중점적으로 추진 중이다. 

22대 국회에서는 ‘AI 산업 육성 및 신뢰 확보에 관한 법률안’ 등, 4건의 인공지능 관련 법안이 발의됐으며 지난 9월에는 ‘딥페이크 성범죄 처벌 강화법’이 통과됐다. 

아울러 금융당국은 금융권 협의회를 구성해 '설명가능한 AI 안내서 마련' 및 '생성형AI 윤리지침'을 제정할 예정이다. 

AI 규제가 보완 및 강화되고 있는 가운데 금융권에선 이와 별개로 △AI의 잠재적 위험 관리 수단으로 'AI 거버넌스' 체계를 구축 △AI 의사결정의 편향성, 기본권 침해 위험 등을 염두에 둔 데이터 품질의 지속적인 관리 및 개선 △AI 리스크관리, 모델 검증, 데이터 거버넌스, 윤리 분야의 전문 인재 영입과 함께 관련 기술 투자 강화 등이 추진돼야 한다고 제언한다. 

류창원 하나금융경영연구소 연구위원은 "AI 시스템 전 과정에 걸친 위험관리정책을 마련해야 하며, 고위험 서비스에 대해서는 적절한 내부통제 승인 절차를 마련하고 승인 책임자를 지정할 필요가 있다"며, "AI 활용에 관한 윤리원칙과 기준을 수립하고, AI 윤리위원회를 별도 설치하는 것이 바람직하다"고 밝혔다. 

이어 류 연구위원은  데이터 관리 및 고도화에 대해선 "금융 회사의 경우 데이터 기반의 신용평가 모델 등에서 과도한 블랙박스 보다는 결과 AI를 설명할 수 있는 ‘설명가능한 AI(XAI)’를 고도화할 필요가 있다"고 말했다. 

신용평가모델에서 소득수준에 대한 인종적 차별 등 논란이 됐던 편향성 사례 등을 염두에 두고 이를 방지하기 위한 학습 데이터 품질을 지속적으로 관리 및 개선해야 한다는 것이다. 

이와 더불어 생성형 AI의 경우, 목적과 사용범위를 명확히 하고 유입 데이터의 편향(bias), 악의적인 데이터 조작 등의 오염을 방지하기 위한 데이터 관리를 강화해야 한다고 덧붙였다. 

마지막으로 류 연구위원은 "AI 활용에 따른 부작용을 해소하기 위해서는 해당 분야의 전문 인력 확보가 중요하며 기술적인 해법을 우선 모색해야 한다"면서 "이사회와 고위 경영진을 포함해 기존 직원을 대상으로 교육도 강화할 필요가 있다"고 강조했다. 

이성노 기자

저작권자 © 한스경제 무단전재 및 재배포 금지