의대생의 과제부터 진단까지 파고든 AI, 우리는 '생각 없는 의사'에게 진료받게 되는가
인공지능(AI)이 의료 현장 깊숙이 침투하고 있다. 챗봇이 의대생의 과제를 대신하고 논문을 작성해 주는 시대, 과연 미래의 의사들은 환자의 고통을 읽어낼 수 있는 진정한 역량을 갖출 수 있을까. 미국의 탐사보도 전문매체 ‘매드인아메리카(Mad in America)’의 피터 시몬스 기자는 최근 <BMJ 증거기반의학(BMJ Evidence-Based Medicine)>에 실린 사설을 인용해 AI가 의료 교육을 훼손하고 있다는 경고를 보냈다. 이는 단순히 기술의 문제가 아니라, 정신장애인을 포함한 환자들의 생명과 인권이 직결된 중대한 사안이다.
미주리대학교 제이콥 호프(Jacob Hough) 연구팀이 주도한 이번 사설은 AI가 의료 교육에 미치는 치명적인 부작용을 조명했다. 연구팀은 "이러한 도구들은 출처를 조작하고 편향을 암호화하며, 과도한 의존을 유도해 교육 과정에 부정적이고 파괴적인 영향을 미칠 수 있다"고 지적했다. 이어 그들은 "의대 프로그램은 이러한 위험에 대해 경계해야 하며, 커리큘럼과 훈련 프로그램을 조정해 위험을 미리 방지하고 가능성을 완화해야 한다"고 강조했다.
이미 의사의 3분의 2가 진료 현장에서 AI를 활용하고 있다. 일각에서는 AI가 진단 정확도를 높이고 적절한 치료법을 찾는 데 도움을 준다고 주장한다. 그러나 비판적인 시각은 다르다. 비평가들은 "이러한 프로그램들이 숙련된 의사들조차 중요한 기술을 잃게 만들고 있다"고 경고했다. 옹호론자들은 의사가 자신의 전문성을 바탕으로 AI의 결과를 재검토하면 된다고 말하지만, 실제 연구 결과는 정반대다. 연구 결과는 "AI를 사용하는 의사들은 자신도 모르는 사이에 AI의 결과물에 과도하게 의존하는 경향이 있으며, 이는 오해로 이어진다"고 밝혔다. 이를 학계에서는 ‘자동화 편향(automation bias)’ 또는 ‘인지적 오프로딩(cognitive offloading)’이라 부른다.
가장 심각한 문제는 사용자가 AI의 결과물을 자신의 사고 과정으로 착각한다는 점이다. 최근 MIT의 연구는 이 위험성을 적나라하게 보여주었다. MIT 연구진은 "AI를 사용해 에세이를 작성한 학생들은 직후에 에세이의 인용문 하나조차 기억하지 못했음에도 불구하고, 그것을 자신의 작업물이라고 믿었다"고 설명했다. 반면 자신의 능력으로 글을 쓴 학생들은 자신이 쓴 단어를 기억하는 데 아무런 문제가 없었다. 이는 의사가 AI의 진단을 자신의 판단이라 착각하면서도, 정작 왜 그런 진단을 내렸는지 설명하지 못하는 상황이 올 수 있음을 시사한다.
최상의 시나리오라면 의사는 인간의 전문성을 발휘해 AI가 오류를 범했을 때 개입해야 한다. 하지만 시몬스 기자는 "자동화 편향과 인지적 오프로딩에 관한 연구들은 의사가 기계에 맞서 이러한 판단을 내릴 가능성이 작다는 것을 시사한다"고 분석했다. 복잡하고 바쁜 병원 환경에서 의사들은 감시자 역할을 한다고 믿지만, 실제로는 AI의 출력을 맹목적으로 신뢰하게 될 가능성이 크다. 더 큰 문제는 현재의 수련생들이다. 훈련 과정에서 AI에 의존하게 된다면, 그들은 AI가 틀렸을 때 이를 의심하거나 반박할 수 있는 기술 자체를 배우지 못하게 된다.
연구진은 이에 대한 대책으로 의과대학이 AI를 사용할 수 없는 환경에서 대면 시험을 치러야 한다고 제안했다. 또한 그들은 "숙제는 단순히 정답만이 아니라 과정을 보여주는 방식으로 채점되어야 하며, 이는 AI가 생성한 것이 아님을 보장하기 위함이다"라고 제언했다. 나아가 교육자들은 AI가 부분적으로 틀린 예시를 제공해 학생들이 챗봇을 의심하고 재확인하는 비판적 사고를 가르쳐야 한다.
그러나 AI의 위험성은 교육 현장에만 머무르지 않는다. 정신건강 영역에서 AI의 폐해는 더욱 구체적이고 치명적이다. 최근 <JAMA 네트워크 오픈(JAMA Network Open)>의 연구 결과는 "챗봇 사용이 우울증 증가와 연관되어 있다"고 밝혔다. 또한 거대 언어 모델(LLM)은 정부의 의료 보고서나 법정 같은 중요한 맥락에서도 가짜 인용문과 조작된 연구를 생성해 내는 것으로 악명 높다.
특히 시몬스 기자는 정신장애인 당사자들에게 섬뜩한 경고를 덧붙였다. 그는 "AI 챗봇들은 수백만 명에게 치료사로 판매되고 있지만, 동시에 망상적 사고를 부추기고 자살 계획을 돕기도 한다"고 비판했다. 한 대형 의료 서비스 제공업체는 동의 없이 환자와의 상호작용을 녹음하는 데 AI를 사용했다가 소송에 직면하기도 했다.
AI가 의료와 법률 분야에서 편향을 악화시킨다는 점은 이미 잘 알려진 사실이다. 기술이 인간의 고유한 판단과 공감을 대체할 때, 가장 먼저 배제되는 것은 복잡한 서사를 가진 정신장애인의 목소리일 것이다. 우리가 만날 미래의 의사가 AI가 내놓은 데이터를 앵무새처럼 읊조리는 존재라면, 우리의 아픔은 어디서 위로받고 치유받을 수 있을까. 기술의 발전이라는 미명 아래 인간성을 상실해가는 의료 교육에 대한 근본적인 성찰이 필요한 시점이다.