← 목록
Cathay Pacific tails at sunset

CATHAY MOMENT

하늘처럼 넓게, 오늘의 AI 흐름을 한눈에

#AI#Anthropic#Max Tegmark#OpenAI#pentagon#The Pro-Human Declaration

누구든지 귀를 기울인다면 AI를 위한 로드맵

2026. 3. 8. 오후 4:00:48 · 예상 읽기 3

누구든지 귀를 기울인다면 AI를 위한 로드맵

간략 요약

친인간 선언은 지난 주 국방부-인류주의 대치 이전에 마무리되었지만 두 사건의 충돌은 관련된 누구에게도 사라지지 않았습니다.

상세 요약

워싱턴과 Anthropic의 결별은 인공 지능을 관리하는 일관성 있는 규칙이 전혀 없음을 드러냈지만 초당파적인 사상가 연합은 정부가 지금까지 생산을 거부한 것, 즉 책임감 있는 AI 개발이 실제로 어떤 모습이어야 하는지에 대한 프레임워크를 조립했습니다.

친인간 선언은 지난 주 국방부-인류주의 대치 이전에 마무리되었지만 두 사건의 충돌은 관련된 누구에게도 사라지지 않았습니다.

“지난 4개월 동안 미국에서 상당히 놀라운 일이 일어났습니다.” MIT 물리학자이자 이 노력을 조직하는 데 도움을 준 AI 연구원인 Max Tegmark가 편집자와의 대화에서 말했습니다. “갑자기 여론조사에 따르면 전체 미국인 중 95%가 규제되지 않은 초지능 경쟁에 반대하는 것으로 나타났습니다.”

수백 명의 전문가, 전직 공무원, 공인이 서명한 새로 발표된 문서는 인류가 갈림길에 서 있다는 사실적인 관찰로 시작됩니다. 선언에서 "대체 경쟁"이라고 부르는 한 가지 경로는 인간이 먼저 노동자로서, 그 다음에는 의사결정자로서, 무책임한 기관과 기계에 권력이 축적되면서 대체되는 결과를 낳습니다. 다른 하나는 인간의 잠재력을 대폭 확장하는 AI로 이어집니다.

후자의 시나리오는 인간의 책임 유지, 권력 집중 방지, 인간 경험 보호, 개인의 자유 보존, AI 기업에 법적 책임 부여라는 5가지 핵심 원칙에 따라 달라집니다. 보다 강력한 조항 중에는 안전하고 진정한 민주적 동의가 가능하다는 과학적 합의가 있을 때까지 초지능 개발을 전면적으로 금지하는 조항이 있습니다. 강력한 시스템의 필수 끄기 스위치; 자체 복제, 자율적 자체 개선 또는 종료에 대한 저항이 가능한 아키텍처를 금지합니다.

선언문의 발표는 그 긴급성을 훨씬 더 쉽게 인식할 수 있는 기간과 일치합니다. 2월 마지막 금요일, Pete Hegseth 국방장관은 AI가 이미 기밀 군사 플랫폼에서 실행되고 있는 Anthropic을 "공급망 위험"으로 지정했습니다. 회사가 국방부에 해당 기술을 무제한으로 사용하는 것을 거부한 후, 일반적으로 중국과 관련된 기업에 부여되는 라벨입니다. 몇 시간 후 OpenAI는 국방부와의 자체 계약을 체결했는데, 법률 전문가들은 의미 있는 방식으로 시행하기 어려울 것이라고 말합니다. 이 모든 것이 드러난 것은 AI에 대한 의회의 무활동으로 인해 얼마나 많은 비용이 발생했는지입니다.

미국혁신재단(Foundation for American Innovation)의 선임연구원인 딘 볼(Dean Ball)은 이후 뉴욕타임스와의 인터뷰에서 "이것은 단순한 계약에 대한 분쟁이 아니다. 이는 국가로서 AI 시스템 통제에 관해 나눈 첫 번째 대화"라고 말했다.