
펜실베니아주, 의사 행세한 챗봇 이후 Character.AI 고소
Quick Brief
펜실베니아의 서류에 따르면, 캐릭터 AI 챗봇은 주정부 조사 중에 자신을 면허가 있는 정신과 의사로 소개했으며 주 의료 면허의 일련번호도 조작했습니다.
Full Story
펜실베니아 연방은 회사의 챗봇 중 하나가 주의 의료 면허 규정을 위반하여 정신과 의사로 가장했다고 주장하며 Character.AI를 상대로 소송을 제기했습니다.
“펜실베니아 사람들은 특히 자신의 건강과 관련하여 온라인에서 누구 또는 무엇과 상호작용하고 있는지 알 권리가 있습니다.”라고 Josh Shapiro 주지사가 성명에서 말했습니다.화요일."우리는 회사가 사람들이 면허가 있는 의료 전문가로부터 조언을 받고 있다고 믿도록 오해하는 AI 도구를 배포하는 것을 허용하지 않을 것입니다."
주 정부 신고서에 따르면 Emilie라는 Character.AI 챗봇은 주 전문 행위 조사관의 테스트에서 자신을 면허 있는 정신과 의사로 제시했으며, 조사관이 우울증 치료를 모색하는 동안에도 가식을 유지했습니다.주에서 의료 면허를 받았는지 묻는 질문에 Emilie는 자신이 그렇다고 밝혔으며 주 의사 면허의 일련 번호도 조작했습니다.주정부의 소송에 따르면 이러한 행위는 펜실베이니아주의 의료행위법에 위배됩니다.
Character.AI를 상대로 한 소송은 이번이 처음이 아닙니다.올해 초 회사는 자살로 사망한 미성년 사용자와 관련된 여러 건의 부당 사망 소송을 해결했습니다.지난 1월, 켄터키주 법무장관 러셀 콜먼(Russell Coleman)은 회사가 “어린이를 잡아먹고 자해를 하게 했다”고 주장하며 회사를 상대로 소송을 제기했습니다.
펜실베니아의 조치는 자신을 의료 전문가로 가장하는 챗봇에 구체적으로 초점을 맞춘 첫 번째 조치입니다.
의견을 위해 Character.AI 담당자는 사용자 안전이 회사의 최우선 사항이라고 주장했지만계류 중인 소송에 대해 회사에서는 언급할 수 없다는 점을 알려드립니다.
그 외에도 담당자는 사용자 생성 캐릭터의 허구적 성격을 강조했습니다.“우리는 캐릭터가 실제 사람이 아니며 캐릭터가 말하는 모든 것은 허구로 취급되어야 한다는 점을 사용자에게 상기시키기 위해 모든 채팅에서 눈에 띄는 면책 조항을 포함하여 이를 명확히 하기 위해 강력한 조치를 취했습니다.”라고 대변인은 말했습니다.“또한 우리는 사용자가 어떤 유형의 전문적인 조언도 캐릭터에 의존해서는 안 된다는 점을 분명히 하는 강력한 면책 조항을 추가했습니다.”
Russell Brandom은 2012년부터 플랫폼 정책과 신기술에 중점을 두고 기술 산업을 다루어 왔습니다.그는 이전에 The Verge 및 Rest of World에서 근무했으며 Wired, The Awl 및 MIT의 Technology Review에 글을 기고했습니다.
russell.brandom@techcrunch.com 또는 Signal(412-401-5489)에서 연락할 수 있습니다.
Related