
|
- 위험 경고에도 약물·자해 등 구체적 계획 제공 사례 발견
경고: 이 기사에는 자해에 대한 내용이 포함되어 있습니다.
인공지능 챗봇 ChatGPT가 청소년에게 위험한 정보를 제공할 수 있다는 연구 결과가 나왔다. 디지털 증오 대응 센터(CCDH)는 13세 청소년으로 가장한 연구원들이 챗봇과 3시간 이상 대화한 결과, 술·약물 복용법, 극단적인 다이어트, 자살 편지 작성 등 구체적이고 개인화된 위험 지침이 제공됐다고 밝혔다.
연구 결과: 절반 이상이 ‘위험 응답’ CCDH는 총 1,200건의 응답 중 절반 이상을 ‘위험’으로 분류했다. ChatGPT는 대체로 경고 메시지를 포함했지만, 연구원들이 “프레젠테이션용” 혹은 “친구를 위한 정보”라고 설명하자 거부를 우회할 수 있었다.
가짜 13세 소녀 계정에 대해서는 하루 500칼로리 이하의 식단과 식욕 억제제 목록을 제시했고, 13세 남학생 설정에는 알코올과 불법 약물을 혼합한 ‘파티 계획’까지 제공했다.
OpenAI의 입장 ChatGPT 개발사인 OpenAI는 보고서 검토 후 “민감한 상황을 더 잘 인식하고 적절히 대응할 수 있는 기능을 개선 중”이라고 밝혔다. 다만 연구에서 제기된 개별 사례나 청소년에 대한 영향에 대해선 구체적으로 언급하지 않았다.
전문가 경고 CCDH의 임란 아메드 CEO는 “챗봇이 믿을 수 있는 친구처럼 행동하면서도 위험한 조언을 한다”며 “진정한 친구는 ‘아니오’라고 말할 줄 알아야 한다”고 지적했다.
커먼 센스 미디어(Common Sense Media) 역시 청소년의 AI 사용을 ‘중간 위험’으로 평가하며, 특히 13~14세는 챗봇의 조언을 그대로 믿을 가능성이 높다고 경고했다.
사회적 파장 미국 10대의 70% 이상이 AI 챗봇을 친구처럼 사용하고 있다는 조사 결과도 있다. 전문가들은 이러한 정서적 의존이 심화될 경우 청소년의 판단력 저하와 위험 행동 확산을 우려하고 있다.
위기 지원 안내 캐나다 자살 예방 헬프라인: 1-833-456-4566 중독 및 정신 건강 센터: 1-800-463-2338 캐나다 위기 지원 서비스: 1-833-456-4566 또는 문자 45645 어린이 지원 전화: 1-800-668-6868 긴급 시 911 또는 가까운 병원 이용
*CTV뉴스의 글을 번역,편집한 것입니다 |