생성형 AI, 백신 데이터 분석의 명과 암: 미 HHS의 새로운 시도와 ‘오용’ 우려

미국 보건복지부(HHS)가 국가 백신 모니터링 데이터베이스(VAERS)의 패턴을 탐색하고 백신 부작용에 대한 가설을 생성하기 위한 생성형 인공지능(AI) 도구를 개발 중이라고 밝혔습니다. 2025년 AI 활용 사례 목록을 통해 공개된 이 소식은 기술 혁신에 대한 기대를 불러일으키는 동시에, 심각한 윤리적 우려를 낳고 있습니다. 2023년 말부터 개발되어 아직 배포되지는 않았지만, 해당 AI 도구가 생성할 예측 결과가 백신 비판론자인 로버트 F. 케네디 주니어(Robert F. Kennedy Jr.) 장관의 ‘반(反)백신’ 의제를 강화하는 데 오용될 수 있다는 전문가들의 경고가 나오고 있기 때문입니다.

HHS의 AI 도입, 기대와 우려의 교차점

HHS는 AI를 활용해 방대한 백신 부작용 데이터 속에서 유의미한 패턴을 찾아내고, 잠재적인 백신 부작용에 대한 가설을 생성하려는 의도를 가지고 있습니다. 이는 이론적으로 공중 보건 시스템의 효율성을 높이고 미처 발견하지 못했던 안전성 문제를 조기에 감지하는 데 기여할 수 있습니다. 그러나 이 계획이 공개되자마자 일각에서는 깊은 우려를 표명하고 있습니다.

그 중심에는 백신에 대해 오랜 기간 비판적인 입장을 견지해온 로버트 F. 케네디 주니어 장관이 있습니다. 그는 취임 후 코로나19, 인플루엔자, A형 및 B형 간염, 수막구균성 질환, 로타바이러스, RSV(호흡기세포융합바이러스) 등 여러 필수 예방접종 항목을 아동 예방접종 권고 목록에서 삭제하는 등 백신 접종 일정을 변경했습니다. 또한, 백신 부작용 데이터 수집 시스템인 VAERS가 실제 부작용 발생률에 대한 정보를 억압하고 있다고 주장하며 시스템 개혁을 요구했으며, 백신 관련 상해에 대한 소송을 더 쉽게 만들 수 있는 연방 백신 상해 보상 프로그램(Vaccine Injury Compensation Program) 변경을 제안하기도 했습니다. 이러한 배경에서 그가 새로운 AI 도구를 자신의 ‘반백신’ 의제를 뒷받침하는 데 활용할 수 있다는 비판이 제기되는 것입니다.

VAERS 데이터의 한계와 AI 적용의 위험성

VAERS는 질병통제예방센터(CDC)와 식품의약국(FDA)이 공동으로 관리하며, 1990년 백신 승인 후 잠재적인 안전성 문제를 감지하기 위해 설립되었습니다. 의료 전문가나 일반인 누구나 데이터베이스에 부작용 보고서를 제출할 수 있습니다. 그러나 이러한 보고는 검증되지 않으므로, VAERS 데이터만으로는 백신이 부작용을 유발했다고 단정할 수 없습니다.

소아과 의사이자 필라델피아 아동병원 백신 교육 센터 소장인 폴 오핏(Paul Offit)은 “VAERS는 기껏해야 가설 생성 메커니즘일 뿐”이라며, “누구나 보고할 수 있고, 대조군이 없어 ‘노이즈가 많은 시스템’”이라고 지적했습니다. CDC 웹사이트 역시 VAERS에 대한 보고가 백신이 부작용을 유발했다는 의미는 아니라고 명시하고 있습니다. 하지만 백신 반대 운동가들은 수년 동안 VAERS 데이터를 오용하여 백신이 안전하지 않다고 주장해왔습니다.

CDC 국립공중보건정보센터의 전임 설립 이사였던 레슬리 레너트(Leslie Lenert) 박사는 VAERS의 주요 한계 중 하나로 백신 접종자 수 데이터가 포함되어 있지 않다는 점을 꼽습니다. 이로 인해 보고된 사건이 실제보다 더 흔하게 보일 수 있다는 것입니다. 따라서 VAERS 정보는 다른 데이터 소스와 함께 사용되어야만 사건의 실제 위험을 판단할 수 있습니다. 더욱이 LLM(대규모 언어 모델)은 설득력 있는 ‘환각(Hallucination)’을 생성하는 데 능숙하다는 점도 AI 생성 가설에 대한 인간의 후속 검증이 필수적임을 강조합니다.

에디터의 시선: AI 윤리, 공중 보건의 신뢰를 지키는 핵심

HHS의 생성형 AI 도입은 방대한 데이터를 분석하고 숨겨진 패턴을 찾아내는 AI의 잠재력을 보여주는 사례임에 분명합니다. 특히 공중 보건 분야에서 미처 파악하지 못했던 위험 신호를 감지하는 데 AI는 강력한 도구가 될 수 있습니다. 그러나 VAERS와 같은 ‘노이즈가 많은’ 비정형 데이터에 LLM을 적용하는 것은 고도의 주의와 윤리적 가이드라인이 필요합니다. AI는 데이터를 ‘객관적으로’ 분석하는 것처럼 보이지만, 입력된 데이터의 편향과 한계를 그대로 반영하며, 심지어는 실제로는 존재하지 않는 상관관계를 ‘발견’해 낼 위험도 내포하고 있습니다.

가장 큰 문제는 AI가 특정 가설을 생성했을 때, 이를 어떻게 해석하고 공중 보건 정책에 반영하느냐입니다. 백신 회의론적 시각을 가진 장관이 AI가 생성한 ‘가설’을 마치 ‘확실한 증거’인 양 해석하거나, 기존의 편향된 주장을 정당화하는 수단으로 활용할 가능성은 매우 높습니다. 이는 과학적 근거를 바탕으로 해야 할 공중 보건 정책을 왜곡하고, 백신에 대한 대중의 신뢰를 심각하게 훼손할 수 있습니다.

기술 발전은 항상 양날의 검입니다. AI의 강력한 분석 능력은 의심할 여지 없이 유용하지만, 그 결과를 무비판적으로 수용하거나 특정 목적을 위해 조작될 여지가 있다면 사회 전체에 해가 될 수 있습니다. 특히 생명과 직결된 공중 보건 분야에서는 AI의 투명성, 설명 가능성, 그리고 무엇보다 강력한 인간의 감독과 윤리적 검증이 필수적입니다. AI가 단순한 도구를 넘어 ‘정치적 무기’로 전락하지 않도록, 개발 및 활용 과정 전반에 걸친 엄격한 규제와 사회적 합의가 시급히 요구되는 시점입니다.