투명성 보고서
소개
디지털 서비스법 제15조에 따라 우리는 운영의 투명성과 책임성을 준수합니다. 이 보고서는 2024년 1월 1일부터 2025년 6월 30일까지의 기간 동안 콘텐츠 조정 관행, 업로드, 신고 및 제거에 대한 통찰을 제공합니다. 이 보고서에는 개인 데이터가 공개되지 않습니다.
조정 개요
우리는 자동화 도구, AI 기반 탐지 및 인적 검토를 결합하여 허용 콘텐츠 정책을 시행합니다. 보고 기간 동안 수백만 건의 업로드를 처리하고 사전 조정을 통해 다양한 위반 사항을 해결했습니다.
- 총 콘텐츠 업로드: 1,500만 건
- 사용자 제출 신고: 25만 건
- 자동 탐지: 120만 건
- 콘텐츠 제거: 80만 건 (CSAM 5만 건, 비동의 콘텐츠 10만 건, 저작권 침해 20만 건 포함)
항소 및 분쟁 해결
사용자는 콘텐츠 제거나 계정 조치에 대해 연락 양식을 통해 항소할 수 있습니다. 디지털 서비스법에 따라 법외 분쟁 해결 옵션을 제공합니다. 기간 동안 1만 건의 항소를 받았으며, 성공률은 25%, 평균 응답 시간은 7일입니다.
협력 관계
우리는 아동 보호 사이트 협회(ASACP)와 실종 및 착취 아동 센터(NCMEC) 같은 신뢰할 수 있는 조직과 협력하여 조정 노력을 강화하고 불법 콘텐츠를 신속하게 보고합니다.
사용자 통계 및 추세
디지털 서비스법 제24조(2)에 따라 EU의 월 평균 활성 사용자는 약 500만 명입니다. 조정 추세는 이전 기간 대비 제거율이 15% 증가하여 탐지 능력이 향상되었음을 보여줍니다.
연락처 정보
이 보고서 관련 문의는 [email protected]으로 연락하세요. 학대나 위반 사항을 보고하려면 [email protected]으로 이메일을 보내세요. 일반 지원은 연락 양식을 통해 가능합니다.
준수 사항
우리는 서비스 약관, 디지털 서비스법, 그리고 허용 콘텐츠 정책을 엄격히 준수하여 모든 조정이 법적 및 윤리적 기준에 맞도록 합니다.
최종 업데이트: 2025년 7월 10일