세상에 공짜 점심은 없다는 말, 다들 들어보셨죠? 최첨단 AI가 우리 삶에 깊숙이 들어오는 요즘, 어쩌면 이 오래된 격언이 뼈아프게 다가올지 모르겠습니다. 마치 갓 뽑은 따끈한 커피 한 잔처럼 달콤한 AI의 편리함 뒤에, 알고 보면 꽤나 씁쓸한 ‘면책 조항’이 숨어있다는 사실, 알고 계셨나요?
AI의 두 얼굴: ‘코파일럿은 오락용입니다’
최근 IT 업계를 뜨겁게 달군 소식 하나가 있습니다. 바로 마이크로소프트(Microsoft)의 AI 비서, 코파일럿(Copilot)의 이용 약관 때문인데요. 기업 고객들에게 코파일럿을 팔기 위해 전력투구하는 와중에, 그 약관이 소셜 미디어에서 논란의 중심이 되었죠.
약관에는 이런 내용이 떡하니 박혀있답니다. “코파일럿은 오락 목적으로만 사용되어야 합니다.” 더 놀라운 건 다음 문구들이죠. “실수를 할 수 있고, 의도대로 작동하지 않을 수 있습니다. 중요한 조언을 위해 코파일럿에 의존하지 마십시오. 코파일럿 사용으로 인한 모든 위험은 사용자 본인에게 있습니다.” 한마디로 ‘알아서 써라, 책임은 네 몫’이라는 겁니다. 아니, 우리가 비싼 돈 주고 쓰는 이 똑똑한 AI가 고작 ‘오락용’이라고요? 마치 최신 스마트폰을 샀는데, 제조사가 ‘이건 그냥 장난감입니다’라고 말하는 격이랄까요? 영 찝찝한 노릇이 아닐 수 없습니다.
물론 마이크로소프트 측은 “오래된 문구(legacy language)이며, 제품이 진화하면서 현재 코파일럿의 용도를 제대로 반영하지 못하고 있어 다음 업데이트 때 변경할 예정”이라고 해명했습니다. 하지만 이 해명이 과연 사용자들의 찜찜한 마음을 시원하게 풀어줄지는 미지수입니다.
‘나만 그런 거 아니야!’…AI 업계의 공공연한 비밀
더 재미있는 건, 이런 면책 조항이 비단 마이크로소프트만의 이야기가 아니라는 겁니다. AI 업계의 거물들인 오픈AI(OpenAI)와 xAI(일론 머스크의 AI 기업)도 마찬가지 태도를 취하고 있어요. 오픈AI는 자사 AI의 출력을 “진실 또는 사실 정보의 유일한 출처로 의존해서는 안 된다”고 경고하고 있고, xAI 역시 출력을 “진실(the truth)”로 받아들이지 말라고 합니다. 결국 똑똑한 AI 뒤에는 ‘책임 회피’라는 안전장치를 겹겹이 두르고 있는 셈이죠.
이쯤 되면 이건 우연이 아니라, 생성형 AI의 현주소를 보여주는 업계의 공공연한 비밀이라고 봐야 합니다. AI 기술은 빠르게 발전하고 있지만, 여전히 환각 현상(Hallucination)이나 편향성 문제 등 넘어야 할 산이 많다는 것을 기업들이 가장 잘 알고 있다는 방증이기도 하고요. 그래서 이들은 법적 분쟁의 소지를 최소화하기 위해 이런 안전장치를 마련해두는 겁니다. 문제는 이 ‘면책 조항’이 AI를 ‘만능 해결사’로 생각하는 사용자들에게는 보이지 않는 함정이 될 수 있다는 점이죠.
에디터의 시선
솔직히 말해볼까요? 기업들이 자신들이 만든 AI에 대해 ‘오락용’이라고 못 박고 ‘사용상의 모든 책임은 너에게 있다’고 말하는 건, 마치 주방장이 “이 음식은 맛없을 수도 있고 배탈 날 수도 있으니, 먹고 탈 나도 내 책임은 아닙니다”라고 말하면서 음식을 파는 것과 다름없습니다. 기업의 입장은 충분히 이해하지만, 이런 태도가 AI가 우리 사회에 진정으로 신뢰받는 존재로 자리매김하는 데 도움이 될까요?
지금 당장은 AI 기술의 한계 때문에 이런 면책 조항이 불가피할 수도 있습니다. 하지만 중요한 건, 이 불편한 진실을 사용자들이 제대로 인지하고, AI를 비판적인 시각으로 바라보며 활용해야 한다는 겁니다. AI는 강력한 도구지만, 궁극적인 판단과 책임은 여전히 우리의 몫이라는 것을 잊지 말아야 하죠. 과연 언제쯤 AI 기업들이 ‘오락용’이라는 딱지를 떼고, 자신들의 기술에 진정한 책임을 지는 날이 올까요? 그때까지 우리는 AI를 어떻게 믿고 써야 할지, 각자의 답을 찾아야 할 때입니다.