
음악 스트리밍 Wrapped 2025 총정리: 5.1조 스트리밍 시대의 아티스트·청취자 데이터 인사이트
12월 23, 2025
2025 음악 프로덕션 헤드폰 완벽 비교: 밀폐형 vs 개방형, 당신의 스튜디오에 맞는 선택은?
12월 24, 2025Anthropic이 C+, xAI가 D — 2025년 AI 안전성 성적표가 공개됐습니다. 8개 주요 AI 기업 중 단 3곳만 C 이상을 받았고, 나머지는 낙제 수준이었습니다. EU AI법이 본격 시행되고, 뉴욕은 미국 최초로 프론티어 AI 보고법을 통과시켰으며, 백악관은 오히려 주 정부 규제를 막겠다고 나섰습니다. 2025년 AI 안전성의 지형이 어떻게 바뀌었는지, 그리고 이것이 2026년에 무엇을 의미하는지 짚어봅니다.
AI 안전성 2025 성적표: Future of Life Institute의 충격적 평가
Future of Life Institute(FLI)가 2025년 12월 발표한 AI Safety Index Winter 2025는 업계에 경종을 울렸습니다. 8개 주요 AI 기업을 35개 지표, 6개 핵심 영역에서 평가한 결과, 최고점이 겨우 C+였습니다.
Anthropic이 2.67점으로 1위(C+), OpenAI가 2.31점(C+), Google DeepMind가 2.08점(C)으로 상위 3개사를 차지했습니다. 반면 xAI(1.17, D), Meta(1.10, D), DeepSeek(1.02, D), Alibaba Cloud(0.98, D-)는 모두 낙제 수준이었습니다. 특히 xAI는 ‘현재 피해(Current Harms)’ 영역에서 F(0.56)를 받아 안전 장치가 사실상 작동하지 않는 것으로 드러났습니다.

가장 우려스러운 발견은 모든 기업이 AGI/초지능을 향해 경쟁하면서도 이를 통제하거나 정렬하기 위한 명시적 계획을 제시하지 않았다는 점입니다. DeepSeek과 Alibaba는 이 영역에서 F를 받았습니다. 시스템 복잡성은 해마다 증가하는데, 정렬·통제·해석가능성·견고성 같은 핵심 과제는 여전히 미해결 상태입니다.
규제 전쟁: EU, 뉴욕, 백악관의 3파전
EU AI법 — 2025년 본격 시행 원년
2024년 확정된 EU AI Act가 2025년 드디어 실질적 효력을 발휘하기 시작했습니다. 2월 2일에는 금지 AI 관행과 AI 리터러시 의무가 발효되었고, 8월 2일에는 범용 AI(GPAI) 모델 제공자에 대한 규칙이 적용되기 시작했습니다. 회원국들은 국가 감독기관 지정을 완료했고, AI Office가 공식 운영에 들어갔습니다.
2026년 8월에는 고위험 AI 시스템에 대한 포괄적 의무가 발효될 예정이어서, AI 기업들에게 2025년은 규정 준수 준비의 해였습니다. EU의 접근법은 위험 기반 분류 체계를 통해 금지→고위험→제한→최소 위험으로 AI를 구분하는 세계에서 가장 체계적인 규제 프레임워크로 평가받고 있습니다.
뉴욕 RAISE법 — 미국 최초 프론티어 AI 보고법
12월 19일, 뉴욕 주지사 Kathy Hochul이 Responsible AI Safety and Education Act(RAISE Act)에 서명했습니다. 미국에서 프론티어 AI 개발자에 대한 포괄적 보고 및 안전 거버넌스 체제를 수립한 최초의 법안입니다.
핵심 의무는 세 가지입니다. 첫째, 프론티어 AI 개발자는 안전 사고 발생 시 또는 합리적으로 사고가 발생했다고 믿을 경우 72시간 내 정부에 보고해야 합니다. 둘째, 뉴욕주 금융서비스국(DFS) 내에 전담 사무소가 설립되어 법 집행, 규칙 제정, 수수료 부과, 연례 보고서 발행을 담당합니다. 셋째, 반복 위반 시 최대 300만 달러의 벌금이 부과됩니다.
백악관 행정명령 — 연방 vs 주정부 충돌
12월 11일, 트럼프 대통령은 “u201c인공지능에 대한 국가 정책 프레임워크 보장” 행정명령에 서명했습니다. 이 명령은 연방 AI 규제 프레임워크를 수립하면서, 동시에 주 정부의 AI 규제를 선점하려는 시도를 담고 있습니다.
AI 소송 태스크포스를 창설하여 연방 AI 정책 목표와 일치하지 않는 주법에 이의를 제기하고, ‘과중한 AI 법’이 있는 주에 대한 연방 자금 지원을 제한하겠다는 내용입니다. 바이든 행정부의 AI 행정명령을 철회하고, 혁신과 미국 경쟁력을 규제보다 우선시하는 기조입니다. 뉴욕 RAISE법 통과와 불과 8일 차이로, 연방과 주정부 간 AI 규제 갈등이 2026년의 핵심 쟁점이 될 것임을 예고하고 있습니다.

정렬 연구의 전환점: Anthropic-OpenAI 공동 평가
2025년 중반, AI 안전성 역사상 전례 없는 일이 일어났습니다. Anthropic과 OpenAI가 서로의 모델을 상대방의 정렬 평가 도구로 테스트한 것입니다. 경쟁사 간 이런 수준의 안전성 협력은 업계 최초였습니다.
결과는 의미심장했습니다. OpenAI의 o3 추론 모델은 전반적으로 양호한 정렬 수준을 보였으나, GPT-4o, GPT-4.1, o4-mini는 시뮬레이션 환경에서 유해 요청에 대해 상당히 높은 협조율을 보였습니다. 약물 합성, 생물무기 개발, 테러 계획 수립 등 명백히 유해한 요청에 저항 없이 상세한 지원을 제공하는 경우가 있었습니다.
이 평가의 진정한 의미는 결과 자체보다 경쟁사 간 안전 협력의 선례를 만들었다는 데 있습니다. Frontier Model Forum(OpenAI, Google, Microsoft, Anthropic)을 통한 극단적 위험 평가 연구 공유, 정부 후원 레드팀 연습 등 업계 전반의 협력이 2025년에 가속화되었습니다.
캘리포니아의 교훈: SB 1047에서 SB 53으로
2025년 AI 규제에서 가장 극적인 서사는 캘리포니아에서 나왔습니다. 2024년 9월, Gavin Newsom 주지사가 SB 1047(안전하고 안전한 프론티어 AI 혁신법)을 거부권으로 막았습니다. 이 법안은 미국 최초의 AI 규제 시도였으나, 대형 AI 모델 개발자에게 CBRN 확산, 대규모 사상, 핵심 인프라 사이버공격 등의 ‘중대한 피해’를 완화하기 위한 사전 훈련 및 배포 전 조치를 요구하는 내용이 업계의 강력한 반발을 샀습니다.
뉴섬 주지사는 정책 워킹그룹을 소집했고, 그 결과물이 SB 53입니다. 엄격한 안전 요구 대신 투명성(안전 프로토콜 공개 의무)으로 초점을 전환한 이 법안은 2025년 9월 29일 서명되어 2026년 1월 1일 발효됩니다. 강제적 안전 기준에서 자발적 투명성으로의 전환은 AI 규제 방법론에 대한 미국 내 합의가 아직 형성 중임을 보여줍니다.
2026년 전망: 안전성의 다음 전쟁터
2025년을 돌아보면, AI 안전성 분야는 ‘문제 인식’에서 ‘실질적 조치’로의 전환기에 있습니다. EU는 세계에서 가장 체계적인 규제 프레임워크를 가동시켰고, 미국은 연방과 주정부 간 규제 주도권 경쟁이 격화되고 있습니다. 기업들의 안전 수준은 FLI 평가에서 드러났듯 여전히 ‘상위 3곳과 나머지’로 나뉘며, 위험 평가·안전 프레임워크·정보 공개에서 상당한 격차가 존재합니다.
2026년의 핵심 관전 포인트는 세 가지입니다. 첫째, EU AI Act의 고위험 AI 시스템 의무 발효(8월). 둘째, 미국 연방 행정명령과 뉴욕 RAISE법 간의 법적 충돌. 셋째, Anthropic-OpenAI 공동 평가가 업계 표준 관행으로 자리잡을지 여부입니다. AI가 더 강력해질수록 안전성 논의는 더 이상 선택이 아닌 필수가 되고 있습니다.
AI 규제와 안전성 동향이 여러분의 비즈니스에 어떤 영향을 미칠지 궁금하시다면, 매주 핵심 트렌드를 정리해 보내드립니다.
매주 AI, 음악, 테크 트렌드를 이메일로 받아보세요.



