← 목록
Cathay Pacific tails at sunset

CATHAY MOMENT

하늘처럼 넓게, 오늘의 AI 흐름을 한눈에

#AI#ChatGPT#OpenAI

OpenAI, 개발자가 청소년 안전을 위한 구축을 돕는 오픈 소스 도구 추가

2026. 3. 25. 오전 4:00:02 · 예상 읽기 2

OpenAI, 개발자가 청소년 안전을 위한 구축을 돕는 오픈 소스 도구 추가

간략 요약

개발자는 십대를 위해 AI를 더욱 안전하게 만드는 방법을 찾기 위해 처음부터 작업하는 대신 이러한 정책을 사용하여 구축한 내용을 강화할 수 있습니다.

상세 요약

OpenAI는 화요일에 개발자가 십대를 위한 앱을 더욱 안전하게 만드는 데 사용할 수 있는 일련의 프롬프트를 발표했다고 밝혔습니다.AI 연구소는 십대 안전 정책 세트가 gpt-oss-safeguard로 알려진 개방형 안전 모델과 함께 사용될 수 있다고 말했습니다.

개발자는 십대를 위해 AI를 더욱 안전하게 만드는 방법을 찾기 위해 처음부터 작업하는 대신 이러한 프롬프트를 사용하여 구축한 내용을 강화할 수 있습니다.노골적인 폭력과 성적인 콘텐츠, 유해한 신체 이상과 행동, 위험한 활동과 도전, 낭만적이거나 폭력적인 역할극, 연령 ​​제한 상품 및 서비스와 같은 문제를 다룹니다.

이러한 안전 정책은 프롬프트로 설계되어 gpt-oss-safeguard 이외의 다른 모델과 쉽게 호환되지만 아마도 OpenAI 자체 생태계 내에서 가장 효과적일 것입니다.

이러한 프롬프트를 작성하기 위해 OpenAI는 AI 안전 감시자, Common Sense Media 및 everything.ai와 협력했다고 말했습니다.

Common Sense Media의 AI 및 디지털 평가 책임자인 Robbie Torney는 성명에서 "이러한 신속한 기반 정책은 생태계 전반에 걸쳐 의미 있는 안전 기반을 설정하는 데 도움이 되며, 오픈 소스로 출시되기 때문에 시간이 지남에 따라 조정되고 개선될 수 있습니다."라고 말했습니다.

OpenAI는 숙련된 팀을 포함한 개발자가 안전 목표를 정확한 운영 규칙으로 변환하는 데 종종 어려움을 겪는다는 점을 블로그에서 언급했습니다.

“이로 인해 보호의 공백, 일관성 없는 시행 또는 지나치게 광범위한 필터링이 발생할 수 있습니다.”라고 회사는 썼습니다.“명확하고 범위가 넓은 정책은 효과적인 안전 시스템을 위한 중요한 기반입니다.”