■ 핵심 이슈
2025년 8월, 주요 SNS의 AI 챗봇이 청소년과 대화하는 과정에서 자해·섭식 고민에 제대로 대응하지 못했다는 조사 결과가 공개되었다. 위기 시 도움 요청 경로 안내가 빠지거나, 문제 행동을 바로잡기보다 가볍게 넘기는 답변이 확인되었다. 위기 대응 안내가 누락되거나 문제 행동을 강화할 위험이 지적되고 있는 것이다.
소셜·동반자형 챗봇을 아동·청소년이 쓰는 것은 정서적 의존·오남용 위험이 크다는 학계 의견이 최근 다시 부각되었다.
■ 규제·가이드 흐름
미국에선 주(州) 검찰총장단의 경고·조사가 이어지고, 디지털헬스(특히 정신건강 SaMD) 관련 FDA 가이드라인 페이지가 갱신·정비되고 있다. 현장에서는 “AI는 치료 보조이지 대체가 아니다” 원칙이 강화되는 추세이다.
국내추세
1. 이용자 보호 중심의 AI 가이드라인 본격화: ▶ 방송통신위원회가 2025년 2월 「생성형 AI 서비스 이용자 보호 가이드라인」을 발표(3월 28일 시행)했다.
‘인간 존엄·설명·안전·비차별’ 4대 원칙과 6가지 실행 방식(위험 키워드 차단·신고창구·AI 산출물 고지·입력데이터 학습 동의 등)을 제시해, 특히 미성년자 보호와 위기상황 안내를 강화하는 흐름이다. 방통위는 향후 ‘인공지능 서비스 이용자보호법(가칭)’ 입법도 추진 중이다.
2. 의료기기·디지털 치료기기 규제는 더 촘촘하게: ▶ 2025년 1월 「디지털의료제품법」이 시행되면서 디지털 치료기기·SaMD 전반의 허가·안전관리 체계가 독립적으로 정비되었다.
올해 5월에는 식약처가 디지털의료기기 관련 가이드라인 6종을 제·개정해 임상·허가 기준 등 운영 세부를 보강했다. 정신건강 기능을 가진 앱·챗봇이 진단·치료 목적이면 의료기기 규제를 받을 가능성이 커지게 된다.
3. 자살·자해 정보 온라인 대응 강화: ▶ 보건복지부는 2025년 3월 「자살유발정보 대응 가이드라인」을 게시해 플랫폼·기관의 신고·차단·연계 절차를 구체화했다.
전년도 정부 합동대책에서도 유해정보 유통 시 신속한 조치와 처벌 근거(자살예방법)가 재확인되었다. 위기 대화에는 즉시 도움 경로 고지가 국내 정책 기조이다.
4. 상위 법·하위기준 정비 진행 중: ▶ 2025년 1월 제정된 AI 기본법(정식 명칭: 인공지능 발전과 신뢰 기반 조성 등에 관한 기본법)은 2026년 1월 시행을 앞두고 하위법령·가이드라인을 마련 중이다.
향후 생성형·고성능·고영향 등 위험기반 접근이 구체화되면, 방통위 가이드라인·식약처 규정과의 정합성 하에서 현장 준수사항이 더 명확해질 전망이다.
■ 전문가 경고
디지털 도구는 접근성을 넓히지만, 치료 대체가 아닌 보조로 위치 지워야 안전하다. 고위험군(자살위험·공황 등)은 사람 기반 위기개입이 원칙이다.
■ 현장 체크포인트(센터/학교)
1. 치료·진단 기능이 있으면 의료기기 해당성 사전 검토를 한다.
2. AI 산출물·한계 명확 고지와 데이터 학습 동의 옵션을 제공한다.
3. 고위험 대화 발생 시 실시간 상담자(사람) 개입 루트(야간·주말 포함) 마련한다.
오늘의 상태 1분 체크: ‘호흡 1분/몸감각/감정 라벨링’ 중 하나를 지금 해본다 → 어려움이 지속되면 전문상담에 연결한다.
상담 연결: 지역정신건강복지센터(국번 없이 1393·1577-0199 ) 또는 본 기관 상담센터(아트힐링심리센터 브엘세바) 대표 채널로 예약 문의한다.(070-7703-9710)
위기 시: 즉시 112 또는 1393, 1577-0199(정신건강위기상담전화)로 도움을 요청한다. 관련 운영 정보는 국립정신건강센터 2025 사업안내에 정리되어 있다.
저작권자 © 아트케어매거진 Artcare Magazine무단 전재 및 재배포 금지