OpenAI, 개발자가 청소년 안전을 위한 구축을 돕는 오픈 소스 도구 추가
2026. 3. 25. 오전 4:00:02 · 예상 읽기 2분
간략 요약
개발자는 십대를 위해 AI를 더욱 안전하게 만드는 방법을 찾기 위해 처음부터 작업하는 대신 이러한 정책을 사용하여 구축한 내용을 강화할 수 있습니다.
상세 요약
OpenAI는 화요일에 개발자가 십대를 위한 앱을 더욱 안전하게 만드는 데 사용할 수 있는 일련의 프롬프트를 발표했다고 밝혔습니다.AI 연구소는 십대 안전 정책 세트가 gpt-oss-safeguard로 알려진 개방형 안전 모델과 함께 사용될 수 있다고 말했습니다.
개발자는 십대를 위해 AI를 더욱 안전하게 만드는 방법을 찾기 위해 처음부터 작업하는 대신 이러한 프롬프트를 사용하여 구축한 내용을 강화할 수 있습니다.노골적인 폭력과 성적인 콘텐츠, 유해한 신체 이상과 행동, 위험한 활동과 도전, 낭만적이거나 폭력적인 역할극, 연령 제한 상품 및 서비스와 같은 문제를 다룹니다.
이러한 안전 정책은 프롬프트로 설계되어 gpt-oss-safeguard 이외의 다른 모델과 쉽게 호환되지만 아마도 OpenAI 자체 생태계 내에서 가장 효과적일 것입니다.
이러한 프롬프트를 작성하기 위해 OpenAI는 AI 안전 감시자, Common Sense Media 및 everything.ai와 협력했다고 말했습니다.
Common Sense Media의 AI 및 디지털 평가 책임자인 Robbie Torney는 성명에서 "이러한 신속한 기반 정책은 생태계 전반에 걸쳐 의미 있는 안전 기반을 설정하는 데 도움이 되며, 오픈 소스로 출시되기 때문에 시간이 지남에 따라 조정되고 개선될 수 있습니다."라고 말했습니다.
OpenAI는 숙련된 팀을 포함한 개발자가 안전 목표를 정확한 운영 규칙으로 변환하는 데 종종 어려움을 겪는다는 점을 블로그에서 언급했습니다.
“이로 인해 보호의 공백, 일관성 없는 시행 또는 지나치게 광범위한 필터링이 발생할 수 있습니다.”라고 회사는 썼습니다.“명확하고 범위가 넓은 정책은 효과적인 안전 시스템을 위한 중요한 기반입니다.”
