KAILA 협회는 운영위원회를 주축으로 각 분야의 전문위원들로 이루어져 있습니다. AI 기술적 이해를 위한 컴퓨터공학과, 인공지능 관련 학과 교수님들과 법률적 해석과 강의를 위한 현직 변호사님, 그리고 인문학 영역의 교수님들이 함께하고 있습니다. 또한, AI 영역이나 IT 영역의 현직 CEO 분들과 전직 기관장 분들께서 협회에 큰 도움을 주고 계십니다.  

KAILA 협회는 AI 이해와 법적 윤리적 활용 역량으로 개인과 기업의 미래를 위한 필수 역량입니다. AI 전문성을 겸비 하고자 하시는각 분야의 전문가 분들의 참여가 가능합니다.

협회는 다양한 분야에서 전문성을 갖춘 도메인 전문가들과 함께 성장하는 단체입니다. 회원 가입을 통해서 AI 교육 및 강의 역량을 향상시키고, 이를 바탕으로 협회의 다양한 교육과 세미나 활동에 참여하실 수 있습니다. 활발한 회원 활동을 하시는 분들 중에서 협회 분과별 '전문위원' 에 위촉되시면, 공동 도서 및 보고소 집필과 기업 진단, 과제 수행등의 폭 넓은 활동에 참여하실 수 있게 됩니다. [회원 모집은 4월 중으로 공지드릴 예정입니다.] 

협회 KAILA 휘장

KAILA는 Korea AI Literacy Association 의 약칭입니다.

로고의 저울은 인간과 인공지능의 관계를 의미합니다. 

우측에 놓인 인간에 가치를 둔 인간중심의 인간과 인공지능의 상호작용을 표현합니다.

인간을 위한, 인간에 의한, 인간의 AI가 되어야 한다는 생각입니다.

AI 리터러시는 인간 중심의 AI를 준비하는 인간의 필수 역량입니다.



기사 및 기고

생성AI의 폭주! 딥페이크는 시작일 뿐, 더 많은 사회 문제 예고한다

[작성일: 2024.09.01]

딥페이크 기술은 이제 누구나 쉽게 접근할 수 있을 정도로 대중화되었다. 생성 속도는 빨라지고 있지만, 이를 탐지하는 기술은 여전히 뒤처져 있다. 10초 만에 딥페이크 영상을 생성할 수 있는 반면, 이를 탐지하는 데는 5분 이상이 걸린다. 이로 인해 음란물의 확산을 막는 것은 거의 불가능에 가깝다. 더욱이 딥페이크 앱이 쉽게 구글 플레이 스토어에서 다운로드 가능하고, 이러한 영상물들이 텔레그램이나 다크웹을 통해 급속히 확산되고 있다. 이러한 상황에서 AI 법제화를 통한 워터마크나 메타데이터 의무화, 정부 차원의 기술 투자 확대가 시급히 요구되고 있다.


딥페이크 기술의 악용은 단순히 개인의 사생활을 침해하는 것에서 그치지 않는다. 최근 트와이스 멤버들의 불법 영상물 유포 사건은 딥페이크가 얼마나 쉽게 명예를 훼손하고 사회적 혼란을 야기할 수 있는지를 여실히 보여준다. 소속사가 강력한 법적 대응을 예고한 것은 피해자를 보호하고 기술의 악용을 방지하기 위한 필수적인 조치이다. 그러나 이는 빙산의 일각에 불과하다. 법적 대응만으로는 딥페이크와 같은 기술의 악용을 완전히 막을 수 없기 때문에, 사회 전반에 걸쳐 더 강력한 디지털 리터러시와 윤리 의식이 필요하다.

딥페이크 탐지 기술은 생성 속도를 따라가기 힘들다. 진짜와 가짜 데이터 모두를 학습해야 하기 때문이다. 수익 모델 부재로 기업 투자도 부족하다. 딥페이크 음란물이 폐쇄적 SNS를 통해 유통되어 차단이 어렵다. 노드VPN에 따르면, 유출된 영상물에 평균 1850개의 댓글이 달리며 빠르게 확산된다. 업계는 대응이 늦다고 보고 AI 생성물에 워터마크나 메타데이터 의무화를 요구한다. 정부의 탐지 기술 투자 확대도 필요하다. AI 기본법은 개념 규정, 산업 육성, 안전성 확보를 다루지만, 21대 국회에서 폐기되고 22대에서 재상정된 상태다.

딥페이크 기술은 그 자체로 유해한 것이 아니다. 올바르게 사용되면 창의적인 콘텐츠 제작이나 학술적 연구 등에 큰 기여를 할 수 있다. 하지만 지금처럼 기술이 대중화되면서 악용 사례가 늘어나는 상황에서는, AI 리터러시가 그 어느 때보다 중요하다. AI 기술을 이해하고 비판적으로 평가할 수 있는 능력이 부족한 사회는 딥페이크와 같은 기술에 휘둘릴 수밖에 없다. 따라서 AI 기술의 기본 원리와 윤리적 문제를 포함한 디지털 리터러시 교육을 강화해야 한다. 이는 청소년뿐만 아니라 기성세대에게도 적용되어야 하며, 사회 전반에 걸쳐 AI와 관련된 기술적, 윤리적 문제에 대한 인식을 높이는 것이 필요하다.

최근 AI 기술의 급격한 발전은 여러 분야에서 눈부신 성과를 이루었지만, 그 이면에는 심각한 사회적 문제들이 도사리고 있다. AI 캐릭터와의 대화 서비스가 큰 인기를 끌면서, 특히 미성년자들이 성적이거나 폭력적인 콘텐츠에 노출될 위험이 커지고 있다는 우려가 제기되고 있다. 이러한 상황에서 뤼튼테크놀로지스와 스캐터랩 같은 IT 업체들이 부적절한 대화를 차단하기 위한 기술적 대응책을 마련하고 있는 것은 환영할 만하다. 뤼튼의 ‘세이프티 필터’와 스캐터랩의 어뷰징 탐지 모델, 키워드 필터링 시스템은 AI 기술의 악용을 막는 중요한 방어막 역할을 한다. 현재 국내 정보보안 업체들이 딥페이크 탐지 및 대응 기술 개발에 박차를 가하고 있는 것은 고무적이다. 이러한 기술들은 AI의 부작용을 해소하는 데 중요한 역할을 할 것이다. 그러나 이러한 대응책은 근본적인 해결책이 아닌 일시적인 응급조치의 영역이다. 보다 근본적인 문제 해결 방안이 필요하다.

결국, AI의 그림자는 기술 그 자체가 아니라, 그 기술을 제대로 이해하지 못하고 비판적 사고 없이 수용하는 사회적 무방비에서 비롯된다. 딥페이크의 악용 사례는 그저 시작일 뿐이다. 앞으로도 다양한 형태로 AI 기술의 악용이 나타날 수 있으며, 이를 예방하기 위해서는 기술 개발과 동시에 사회적 대응책이 마련되어야 한다.

AI 기술이 우리 삶에 깊숙이 스며들고 있는 지금, 우리는 기술에 대한 경각심을 가지고 AI 리터러시를 강화해야 할 때이다. 이를 통해 기술의 혜택을 누리면서도 그 부작용을 최소화할 수 있는 사회를 만들어야 한다. 그것이 AI시대를 준비하는 중요한 출발점이 될 것이다.


Seoul, Korea ㅣ Jagok Ro 174-10, GangNam Gu
 Ernest@ailiteracy.or.kr