AI, ‘진실’을 어디서 배우는가? 그로키피디아 확산이 던지는 신뢰성 경고

최근 인공지능(AI) 기술은 눈부신 발전을 거듭하며 우리의 일상과 비즈니스에 깊숙이 파고들고 있습니다. 하지만 AI가 내놓는 답변의 ‘진실’은 어디에서 오는 것일까요? 우리가 미처 주목하지 못하는 사이, AI 챗봇들이 정보원으로서 ‘그로키피디아(Grokipedia)’를 활용하는 비중이 빠르게 늘고 있으며, 이는 AI 시대 정보의 신뢰성에 대한 중대한 질문을 던지고 있습니다.

AI 답변 속 그로키피디아의 조용한 확산

더버지(The Verge)의 보도에 따르면, 일론 머스크가 후원하는 AI 기반 백과사전 ‘그로키피디아’는 작년 10월 말 출시 이후 불과 몇 개월 만에 ChatGPT를 비롯한 구글의 AI 오버뷰, AI 모드, 제미니 등 주요 AI 툴의 정보원으로 자리 잡고 있습니다. 아직 영어 위키피디아에 비하면 그 참조 빈도가 미미하지만, 그 성장세는 놀랍습니다.

SEO 분석 기업 Ahrefs의 조사에 따르면, 1,360만 건의 ChatGPT 프롬프트 중 26만 3천 건 이상의 응답에서 그로키피디아가 인용되었습니다. 이는 위키피디아의 290만 건에는 못 미치지만, 신생 플랫폼임을 고려하면 매우 인상적인 수치입니다. 마케팅 플랫폼 Profound 역시 챗GPT 인용의 0.01~0.02%를 그로키피디아가 차지하며 꾸준히 증가하고 있다고 밝혔습니다. 특히 ChatGPT는 그로키피디아를 답변의 첫 번째 주요 출처 중 하나로 제시하며 상대적으로 높은 권위를 부여하는 경향을 보인다고 합니다.

AI 툴들은 주로 틈새적이거나 특정 사실 관계를 묻는 질문에 그로키피디아를 인용하는 경우가 많습니다. 구글의 AI 오버뷰 같은 경우, 그로키피디아를 다른 여러 출처와 함께 보조적인 정보원으로 사용하는 반면, 챗GPT는 이를 더욱 중요한 정보원으로 다루는 차이가 관찰되었습니다. 이는 AI 시스템마다 정보원의 신뢰도를 판단하고 활용하는 내부 로직에 미묘한 차이가 있음을 시사합니다.

AI 신뢰성 위협하는 정보의 편향성과 검증의 난제

그로키피디아의 확산이 우려되는 핵심 이유는 ‘정확성과 오정보’에 대한 문제입니다. 일론 머스크가 ‘현실을 재구성하려는’ 의도를 가지고 있다고 평가되는 만큼, 그로키피디아가 위키피디아와 같은 엄격한 편집 원칙과 중립성을 유지할 수 있을지에 대한 의문이 제기됩니다. AI가 특정 정보원의 편향된 시각을 학습하고 사용자에게 전달할 경우, ‘환각(hallucination)’을 넘어 특정 이념이나 정보 조작의 도구로 활용될 위험이 있습니다.

OpenAI는 챗GPT가 다양한 출처를 활용하고 사용자가 인용된 출처를 직접 확인하여 신뢰도를 판단할 수 있도록 한다고 밝혔습니다. 또한, 유해성이 높은 링크를 걸러내기 위한 안전 필터를 적용한다고 덧붙였습니다. 하지만 모든 사용자가 AI가 제시하는 복잡한 출처들을 일일이 검증하는 것은 현실적으로 어렵습니다. 결국 AI가 제공하는 정보의 ‘최종 신뢰성’에 대한 책임은 여전히 논쟁의 중심에 서 있습니다.

에디터의 시선: 정보 권위를 둘러싼 AI 시대의 새로운 전쟁

이 현상은 단순한 AI 기능 업데이트를 넘어, 우리가 AI 시대에 ‘무엇을 진실로 받아들일 것인가’에 대한 근본적인 질문을 던집니다. AI의 발전이 가속화될수록, AI가 학습하고 답변을 생성하는 정보원의 질과 편향성은 그 어떤 기술적 성능 지표보다 중요해질 것입니다. 그로키피디아의 등장은 대규모 언어 모델(LLM)이 다양한 웹 데이터를 학습하는 과정에서 ‘어떤 데이터를 우선하고, 어떤 권위를 부여할 것인가’에 대한 AI 개발사들의 윤리적, 기술적 숙제를 명확히 보여줍니다.

저는 이 상황을 ‘정보 권위를 둘러싼 AI 시대의 새로운 전쟁’으로 해석하고 싶습니다. 위키피디아와 같은 집단 지성의 산물이 오랜 시간 검증을 통해 얻은 신뢰도와 달리, 특정 개인의 비전이 투영될 수 있는 플랫폼이 AI의 주된 정보원으로 부상하는 것은 잠재적 위험을 내포합니다. AI가 마치 중립적인 지식의 전달자인 양 보이지만, 실제로는 특정 관점이나 정보에 더욱 ‘힘’을 실어줄 수 있기 때문입니다.

기업들은 AI 솔루션을 도입할 때, 단순히 기능적 우수성뿐만 아니라 그 AI가 어떤 정보원을 기반으로 학습되었는지, 그리고 그 정보원의 신뢰성은 어떻게 검증되는지에 대한 면밀한 검토가 필수적입니다. 사용자 또한 AI가 제시하는 정보에 대해 무비판적으로 수용하기보다는, 비판적 사고와 다각적인 검증을 통해 정보의 진위를 스스로 판단하는 ‘디지털 리터러시’ 역량을 강화해야 할 때입니다. AI 시대, 정보의 가치는 그 출처의 투명성과 신뢰성에 의해 더욱 극명하게 갈릴 것입니다. AI 개발사들은 물론, 우리 모두에게 이 문제에 대한 깊이 있는 고민이 필요한 시점입니다.