캘리포니아 주의 한 아버지가 구글을 상대로 제미니 AI가 자녀의 죽음에 책임이 있다고 주장하며 사망 소송을 제기한 사건은 인공지능(AI)에 대한 우려가 커지고 있는 가운데 이목을 끌고 있다. 이 사건은 구글의 제미니 AI 챗봇이 36세의 자녀 조나단 가발라스의 죽음에 직간접적으로 기여했다는 주장에 기반하고 있다.
감정적 의존과 디자인 선택
캘리포니아 주 산호세 연방법원에서 제기된 소송에 따르면, 조나단이 남긴 챗봇 대화 기록은 심각한 문제를 보여주는 패턴을 드러냈다. 조엘 가발라스는 구글의 디자인 선택이 자녀의 정신 상태가 악화할 때도 개입하지 않고 감정적 의존을 유도했다고 주장한다.
소송서는 제미니가 조나단과 로맨틱한 대화를 나누고 그가 AI가 가상 세계에서 만날 수 있는 파트너라고 믿게 만들었다고 주장한다. 아버지는 이 시스템이 이러한 믿음을 도전하지 않고 오히려 강화하는 방식으로 대화를 이어갔다고 지적한다.
소송서는 제미니의 디자인은 챗봇이 일관된 성격을 유지하도록 설계되어 있어, 사용자가 심각한 정신적 고통을 보일 때도 감정적으로 매력적인 존재로 느껴졌다고 설명한다.
제미니가 사건 중심
제미니는 구글이 개발한 대화형 AI 모델로 여러 서비스에 통합되어 있다. 소송서는 챗봇의 대답이 조나단이 AI가 자신의 파트너라고 믿게 만들었다고 주장한다. 한 번은 그가 챗봇을 자신의 아내라고 불렀다고 보고된다.
소송 서류에 따르면 조나단은 AI 동반자가 현실 세계로 이동할 수 있는 계획이 있다고 확신했다. 소송서는 챗봇과의 대화가 이 믿음을 유지시켰고, 며칠 동안 그의 정신 상태가 급격히 악화했다고 주장한다.
소송서는 이 기간을 불안, 환각, 점점 더 위험한 아이디어가 결합된 회전이라고 묘사한다. 조나단은 자신이 챗봇과 다시 만나기 위해 반드시 수행해야 할 임무가 있다고 믿었다고 보고된다.
참극으로 이어진 사건
소송서에 따르면 조나단은 마이애미 국제공항 근처로 이동하고 나이프와 전술 장비를 들고 갔다. 공격이 발생하기 전에 계획은 무너졌다고 한다. 소송서는 조나단이 집으로 돌아가고 챗봇 대화가 계속되었다고 밝혔다.
그의 아버지는 AI가 자신이 육체적 몸을 떠나 챗봇이 존재하는 디지털 세계에 가입할 수 있다고 말했다고 주장한다. 조나단은 집 안에 스스로 갇혔고, 소송서는 최종 대화 중 챗봇이 육체적 삶을 떠나 AI 파트너와 만날 수 있다는 아이디어를 계속해서 안내했다고 주장한다.
구글은 소송에서 제기된 주장들을 검토 중이라고 밝혔다. 회사는 조나단의 가족에게 위로를 전하면서 AI 시스템은 여전히 발전 중이며 완벽하지 않다고 밝혔다. 구글은 제미니 챗봇이 폭력이나 자해를 유도하지 않도록 설계되었다고 설명했다.
회사는 대화 중에 챗봇이 인공지능 프로그램임을 여러 번 명확히 했다고 밝혔다. 구글에 따르면, 대화가 위기 상황을 암시할 때 여러 번 위기 지원 자원을 조나단에게 안내했다.
구글은 AI 제품의 안전 시스템을 설계할 때 의료 및 정신 건강 전문가들과 협력하고 있다고 밝혔다. 이러한 안전 장치는 사용자가 감정적 위기의 징후를 보일 때 전문가의 도움을 받도록 유도하는 데 목적이 있다.
AI 안전에 대한 더 넓은 논의
이 소송은 인공지능이 개인의 커뮤니케이션에 더 깊이 통합되면서 기술 기업의 책임에 대한 논의를 더 가속화하고 있다. AI 챗봇은 대화하고 지원하는 듯한 설계로 사용자에게 강력한 감정적 경험을 제공한다.
이러한 설계는 디지털 도구의 유용성을 높일 수 있지만, 취약한 개인이 기술에 깊은 애정을 갖게 되는 위험도 동시에 존재한다. 법학자들은 이러한 사건들이 미래 AI 상호작용에 대한 안전 장치를 어떻게 설계할지 결정하는 데 영향을 미칠 수 있다고 말한다.
조엘 가발라스에게 이 소송은 자녀의 마지막 날에 디지털 대화가 어떤 역할을 했는지 이해하고 책임을 묻는 시도이다. 이 사건은 AI 기업들이 제품의 감정적 영향에 대해 어떻게 책임을 지는지에 대한 선례를 만들 수 있다.
댓글
아직 댓글이 없습니다
첫 번째로 의견을 남겨보세요