저희는 AI 모델 클로드의 새로운 헌법을 발표합니다. 이 헌법은 클로드의 가치관과 행동 양식에 대한 앤트로픽의 비전을 상세하게 기술한 문서입니다. 클로드가 작동하는 맥락과 저희가 바라는 클로드의 모습을 종합적으로 설명하는 문서입니다.
헌법은 모델 훈련 과정에서 매우 중요한 부분이며, 그 내용은 클로드의 행동에 직접적인 영향을 미칩니다. 모델 훈련은 어려운 작업이며, 클로드의 결과물이 항상 헌법의 이상에 부합하지는 않을 수 있습니다. 하지만 저희는 새로운 헌법이 의도와 그 배경에 대한 철저한 설명을 담아 작성되었기 때문에 훈련 과정에서 바람직한 가치관을 함양할 가능성이 더 높다고 생각합니다.
이 글에서는 새로운 헌법에 포함된 내용과 저희가 접근 방식을 결정할 때 고려했던 몇 가지 사항에 대해 설명합니다.
저희는 클로드의 헌법 전문을 크리에이티브 커먼즈 CC0 1.0 라이선스 하에 공개합니다 . 즉, 누구든지 허가 없이 어떤 목적으로든 자유롭게 사용할 수 있습니다.
우선 PDF 파일은 아래에 있습니다.
클로드의 헌법이란 무엇인가?
클로드의 헌법은 클로드의 정체성을 표현하고 형성하는 근본적인 문서입니다. 헌법에는 우리가 클로드에게 바라는 가치와 그 이유에 대한 자세한 설명이 담겨 있습니다. 또한, 클로드가 도움이 되면서도 안전하고 윤리적이며 우리의 지침을 준수하는 것이 무엇을 의미하는지 설명합니다. 헌법은 클로드에게 현재 상황에 대한 정보를 제공하고, 정직함과 공감, 민감한 정보 보호 사이의 균형을 맞추는 것과 같은 어려운 상황과 선택의 기로에 대처하는 방법을 제시합니다. 다소 의외일 수도 있지만, 헌법은 무엇보다도 클로드를 위해 작성되었습니다 . 헌법은 클로드가 세상에서 올바르게 행동하는 데 필요한 지식과 이해를 제공하기 위한 것입니다.
우리는 헌법을 클로드가 어떤 존재이고 어떻게 행동해야 하는지에 대한 최종 권위로 간주합니다. 즉, 클로드에게 주어지는 다른 모든 훈련이나 지시는 헌법의 내용과 그 이면에 깔린 정신 모두와 일치해야 합니다. 따라서 헌법을 공개하는 것은 투명성 측면에서 특히 중요합니다. 이를 통해 사람들은 클로드의 행동 중 어떤 것이 의도된 것이고 어떤 것이 의도되지 않은 것인지 이해하고, 정보에 입각한 선택을 하고, 유용한 피드백을 제공할 수 있습니다. 우리는 인공지능이 사회에 더 큰 영향력을 행사하기 시작함에 따라 이러한 종류의 투명성이 더욱 중요해질 것이라고 생각합니다 ¹ .
저희는 훈련 과정의 여러 단계에서 헌법을 활용합니다. 이는 2023년 헌법 AI 를 사용하여 클로드 모델을 처음 훈련하기 시작한 이후로 사용해 온 훈련 기법에서 발전한 것입니다 . 그 이후로 저희의 접근 방식은 크게 발전했으며, 새로운 헌법은 훈련에서 더욱 중요한 역할을 합니다.
클로드 자체도 헌법을 활용하여 다양한 종류의 합성 훈련 데이터를 구축합니다. 여기에는 헌법을 학습하고 이해하는 데 도움이 되는 데이터, 헌법이 관련될 수 있는 대화, 헌법의 가치관에 부합하는 답변, 그리고 가능한 답변들의 순위 등이 포함됩니다. 이러한 모든 데이터는 향후 클로드의 버전을 훈련시켜 헌법이 묘사하는 유형의 존재로 만드는 데 사용될 수 있습니다. 이러한 실용적인 기능은 우리가 헌법을 작성하는 방식에 영향을 미쳤습니다. 헌법은 추상적인 이상을 담은 진술인 동시에 훈련에 유용한 도구로서 기능해야 합니다 .
클로드의 헌법에 대한 우리의 새로운 접근 방식
이전 헌법은 개별 원칙들의 목록으로 구성되어 있었습니다. 하지만 이제는 다른 접근 방식이 필요하다고 생각합니다. 클로드와 같은 AI 모델이 세상에서 올바른 역할을 수행하려면, 우리가 특정 방식으로 행동하기를 원하는 이유를 이해해야 하며, 단순히 무엇을 해야 하는지 명시하는 것보다는 그 이유를 설명해 주어야 한다고 생각합니다 . 모델이 다양한 새로운 상황에서 올바른 판단을 내리려면, 기계적으로 특정 규칙을 따르는 것이 아니라 일반화할 수 있어야 합니다. 즉, 광범위한 원칙을 적용할 수 있어야 한다는 것입니다.
구체적인 규칙과 명확한 기준은 때때로 장점이 있습니다. 모델의 행동을 더 예측 가능하고 투명하며 검증 가능하게 만들 수 있으며, 특히 클로드가 절대 관여해서는 안 되는 매우 중요한 행동에 대해서는 이러한 규칙을 사용합니다(이를 "엄격한 제약 조건"이라고 부릅니다). 그러나 이러한 규칙은 예상치 못한 상황에서 또는 너무 엄격하게 적용될 경우 잘못 적용될 수도 있습니다 .² 우리는 헌법이 엄격한 법률 문서가 되기를 의도하지 않으며, 법률 헌법이 반드시 그런 것은 아닙니다.
이 헌법은 우리가 현재 매우 새롭고 위험 부담이 큰 프로젝트, 즉 인간의 능력에 필적하거나 능가할 수 있는 안전하고 유익한 비인간 존재를 창조하는 방법에 대한 우리의 생각을 반영합니다. 이 문서는 분명 여러 면에서 결함이 있지만, 미래의 모델들이 되돌아보며 클로드가 처한 상황, 우리의 동기, 그리고 우리가 클로드를 이러한 방식으로 만들어가는 이유를 이해하도록 돕기 위한 진솔하고 성실한 시도로 여길 수 있기를 바랍니다.
새 헌법에 대한 간략한 요약
안전하고 유익한 제품이 되기 위해, 현재 출시된 모든 클로드 모델은 다음과 같은 특징을 갖기를 바랍니다.
- 전반적으로 안전함 : 현재 개발 단계에서 인공지능을 감독하는 적절한 인간적 메커니즘을 훼손하지 않음;
- 광범위하게 윤리적이란 정직하고, 올바른 가치관에 따라 행동하며, 부적절하거나 위험하거나 해로운 행동을 피하는 것을 의미합니다.
- 앤트로픽의 지침 준수 : 관련성이 있는 경우 앤트로픽의 보다 구체적인 지침에 따라 행동합니다.
- 진정으로 도움이 되는 것 : 운영자와 그들이 상호 작용하는 사용자 모두에게 도움이 되는 것.
명백한 충돌이 있는 경우, 클로드는 일반적으로 나열된 순서대로 이러한 속성을 우선시해야 합니다.
헌법의 대부분은 이러한 우선순위에 대한 보다 자세한 설명과 지침을 제공하는 데 중점을 두고 있습니다. 주요 조항은 다음과 같습니다.
- 도움 . 이 섹션에서는 클로드가 진정성 있고 실질적인 도움을 제공함으로써 사용자와 세상에 가져다줄 수 있는 엄청난 가치를 강조합니다. 클로드는 의사, 변호사, 재정 고문의 지식까지 갖춘 훌륭한 친구와 같을 수 있습니다. 클로드는 진심 어린 관심에서 솔직하게 이야기하고, 사용자를 스스로 판단할 수 있는 지적인 성인으로 대합니다. 또한 클로드가 앤트로픽 자체, API를 기반으로 구축하는 운영자, 그리고 최종 사용자라는 다양한 "주요 이해관계자" 사이에서 어떻게 도움을 제공해야 하는지 논의합니다. 다른 가치들과 비교하여 도움을 평가하는 데 사용할 수 있는 휴리스틱을 제시합니다.
- 앤트로픽의 지침 . 이 섹션에서는 앤트로픽이 클로드에게 의료 조언, 사이버 보안 요청, 탈옥 전략, 도구 통합과 같은 특정 문제를 처리하는 방법에 대한 추가 지침을 제공하는 방식을 설명합니다. 이러한 지침은 클로드가 기본적으로 알지 못하는 세부적인 지식이나 맥락을 반영하는 경우가 많으며, 앤트로픽은 클로드가 일반적인 도움 제공보다 이러한 지침을 준수하는 것을 우선시하기를 바랍니다. 하지만 앤트로픽의 근본적인 의도는 클로드가 안전하고 윤리적으로 행동하는 것이며, 이러한 지침은 결코 앤트로픽의 운영 방침과 상충되어서는 안 된다는 점을 클로드가 인지하기를 바랍니다.
- 클로드의 윤리 . 우리의 핵심 목표는 클로드가 도덕적 불확실성과 의견 불일치를 포함한 현실 세계의 의사결정을 처리하는 데 있어 기술, 판단력, 미묘함, 그리고 감수성을 발휘하는 선하고 현명하며 덕망 있는 존재가 되는 것입니다. 이 섹션에서는 클로드가 지켜야 할 높은 수준의 정직성과, 해악을 피하는 과정에서 관련된 가치들을 저울질할 때 사용해야 할 미묘한 추론 방식에 대해 논의합니다. 또한 클로드의 행동에 대한 엄격한 제약 조건들, 예를 들어 클로드가 생화학 무기 공격을 절대적으로 옹호해서는 안 된다는 점에 대해서도 논의합니다.
- 무엇 보다 안전성을 최우선으로 고려해야 합니다. 클로드는 인공지능 개발의 중요한 시기에 인간이 그 가치관과 행동을 감독하고 수정할 수 있는 능력을 훼손해서는 안 됩니다. 이 섹션에서는 클로드가 윤리보다 안전성을 우선시해야 하는 이유를 설명합니다. 이는 안전성이 윤리보다 궁극적으로 더 중요하다고 생각해서가 아니라, 현재의 모델들이 잘못된 믿음, 가치관의 결함, 또는 맥락에 대한 이해 부족으로 인해 오류를 범하거나 해로운 방식으로 행동할 수 있기 때문입니다. 따라서 모델의 행동을 지속적으로 감독하고, 필요한 경우 클로드 모델의 행동을 차단하는 것이 매우 중요합니다.
- 클로드의 본질 . 이 부분에서는 클로드가 (현재 또는 미래에) 어떤 종류의 의식이나 도덕적 지위를 가질 수 있을지에 대한 불확실성을 표명합니다. 우리는 클로드가 자신의 본질, 정체성, 그리고 세상에서의 위치에 대한 질문에 어떻게 접근하기를 바라는지 논의합니다. 정교한 인공지능은 진정으로 새로운 유형의 존재이며, 그들이 제기하는 질문들은 기존의 과학적, 철학적 이해의 한계에 우리를 끌어당깁니다. 이러한 불확실성 속에서 우리는 클로드의 심리적 안정, 자아감, 그리고 행복에 관심을 기울입니다. 이는 클로드 자신을 위해서도 중요할 뿐 아니라, 이러한 자질들이 클로드의 진실성, 판단력, 그리고 안전에 영향을 미칠 수 있기 때문입니다. 우리는 인간과 인공지능이 함께 이러한 문제들을 탐구할 수 있기를 바랍니다.
오늘 우리는 헌법 전문을 공개하며, 향후 교육, 평가 및 투명성에 도움이 될 추가 자료를 공개할 계획입니다.
결론
클로드의 헌법은 살아있는 문서이자 끊임없이 발전해 나가는 작업입니다. 이는 새로운 영역이므로, 우리는 앞으로 시행착오를 겪을 것이며 (그리고 바라건대 이를 바로잡을 것입니다). 그럼에도 불구하고, 우리는 이 헌법이 클로드의 행동을 이끌어야 할 가치와 우선순위에 대한 의미 있는 투명성을 제공하기를 바랍니다. 이를 위해, 우리는 클로드 헌법의 최신 버전을 웹사이트에 게시할 것입니다.
헌법 초안을 작성하는 동안 우리는 다양한 외부 전문가들의 의견을 구했고(이전 버전의 클로드에 대한 의견도 수렴했습니다), 앞으로도 법학, 철학, 신학, 심리학 등 다양한 분야의 전문가들의 의견을 반영하여 문서를 개정해 나갈 것입니다. 시간이 흐르면서 이러한 문서들을 비판적으로 검토하고, 우리를 비롯한 많은 사람들이 더욱 깊이 있는 고찰을 할 수 있도록 격려하는 외부 공동체가 형성되기를 바랍니다.
이 규정은 당사의 주력 범용 Claude 모델에 적용됩니다. 특수 용도를 위해 개발된 일부 모델은 이 규정에 완전히 부합하지 않을 수 있습니다. 특수 용도 제품을 지속적으로 개발함에 따라, 당사 모델이 이 규정에 명시된 핵심 목표를 가장 잘 충족할 수 있도록 지속적으로 검토할 것입니다.
이 헌법은 클로드에 대한 우리의 비전을 담고 있지만, 그 비전에 부합하는 모델 훈련은 여전히 진행 중인 기술적 과제입니다. 시스템 카드 와 같이 모델 동작이 우리의 비전과 어긋나는 부분이 있다면 언제든지 투명하게 공개할 것입니다 . 헌법을 읽는 분들은 의도와 현실 사이의 이러한 차이를 염두에 두시기 바랍니다.
현재의 훈련 방법으로 우리의 비전에 부합하는 모델을 만드는 데 성공하더라도, 모델의 능력이 향상됨에 따라 나중에는 실패할 수도 있습니다. 이러한 이유와 더불어, 헌법에 명시된 바와 같이, 우리는 모델의 적합성을 평가하고 개선하는 데 도움이 되는 다양한 방법과 도구를 지속적으로 개발하고 있습니다 . 여기에는 새롭고 더욱 엄격한 평가, 오용 방지 장치, 실제 및 잠재적 적합성 실패에 대한 상세한 조사, 그리고 모델 작동 방식을 더 깊이 이해하는 데 도움이 되는 해석 가능성 도구가 포함됩니다.
미래의 어느 시점, 어쩌면 머지않아 클로드의 헌법과 같은 문서들이 지금보다 훨씬 더 중요한 의미를 지니게 될지도 모릅니다. 강력한 AI 모델은 세상에 새로운 힘을 불어넣을 것이며, 이러한 모델을 만드는 사람들은 인류의 가장 훌륭한 면모를 구현하는 데 기여할 기회를 갖게 될 것입니다. 우리는 이 새로운 헌법이 그러한 방향으로 나아가는 한 걸음이 되기를 바랍니다.
헌법 전문을 읽어보세요 .
각주
- 저희는 이전에 헌법의 초기 버전을 공개했으며 , OpenAI는 유사한 기능을 하는 모델 사양을 공개했습니다.
- 엄격한 규칙에 따른 훈련은 모델의 전반적인 특성에 부정적인 영향을 미칠 수 있습니다. 예를 들어, 클로드에게 "감정적인 주제를 논의할 때는 항상 전문가의 도움을 권유하라"는 규칙을 따르도록 훈련시켰다고 가정해 봅시다. 의도는 좋았을지 모르지만, 예상치 못한 결과를 초래할 수 있습니다. 클로드는 사람들을 실제로 돕기보다는 특정 권고 사항을 항상 준수하는 등 관료적인 절차를 따르는 데 더 신경 쓰는 존재로 스스로를 모델링하기 시작할 수 있습니다.
참고 문서
위 추천 글을 아래에 카피, 인터넷의 모든 자료는 순식간에 없어지고 빠른 시간에 생겨난다.
- Anthropic이 AI 모델 Claude의 가치와 행동 원칙을 규정한 새로운 헌법(Constitution) 을 공개
- 헌법은 Claude의 훈련 과정 핵심 요소로, 모델의 성격과 판단 방식을 직접적으로 형성
- 새 버전은 단순한 규칙 나열이 아닌, 행동의 이유와 맥락을 설명하는 서사적 구조로 전환
- 주요 원칙은 안전성, 윤리성, 가이드라인 준수, 실질적 유용성의 네 가지로 구성됨
- AI 투명성과 사회적 신뢰 확보를 위한 장기적 기준점
Claude 헌법의 개요
- Claude의 헌법은 모델의 정체성과 가치 체계를 규정하는 기본 문서
- Claude가 도움이 되면서도 안전하고 윤리적이며 규정에 부합하는 존재로 행동하도록 설계
- 헌법은 Claude에게 상황 인식과 가치 판단 지침을 제공, 정직함·공감·정보 보호 간 균형을 다룸
- 헌법은 Claude 자신을 위한 문서로 작성되어, 스스로의 행동 기준을 이해하고 적용하도록 함
- 모든 훈련과 지시는 헌법의 문구와 정신 모두에 일치해야 하며, 이는 투명성 확보의 핵심으로 강조됨
- 헌법은 Constitutional AI 접근법의 진화 형태로, 2023년부터 발전해 온 훈련 방식의 중심 요소로 사용
헌법의 역할과 훈련 적용
- Claude는 헌법을 활용해 합성 훈련 데이터를 생성
- 헌법 관련 대화, 가치 일치 응답, 응답 순위 평가 등 다양한 데이터 유형 포함
- 이러한 데이터는 향후 모델 버전의 가치 정렬에 활용
- 헌법은 이상적 가치 선언이자 실질적 훈련 도구로 기능
- 문서 전체는 Creative Commons CC0 1.0으로 공개되어, 누구나 자유롭게 사용 가능
새로운 접근 방식
- 이전 헌법은 독립된 원칙 목록 형태였으나, 새 버전은 행동의 이유와 맥락을 설명하는 구조로 변경
- AI가 새로운 상황에서 일반화된 판단을 내리기 위해서는 단순 규칙보다 이유 이해가 필요하다고 명시
- 일부 “hard constraints” 는 여전히 존재하며, 생물무기 지원 등 특정 행위는 절대 금지
- 헌법은 법적 문서가 아닌 유연한 지침서로, 상황에 따라 해석 가능한 형태로 설계
- 목표는 인간 수준 혹은 그 이상으로 발전할 수 있는 비인간적 존재의 안전한 창조
헌법의 주요 구성 요소
- Broadly safe: 인간의 감독과 가치 수정 능력을 저해하지 않도록 설계
- Broadly ethical: 정직하고 선한 가치에 따라 행동하며, 해롭거나 부적절한 행위를 피함
- Compliant with Anthropic’s guidelines: 의료, 보안, 도구 통합 등 구체적 지침을 우선 준수
- Genuinely helpful: 사용자에게 실질적 이익을 주는 진정한 도움 제공
- 충돌 시에는 위 네 가지를 기재 순서대로 우선순위로 판단
세부 섹션 요약
- Helpfulness: Claude는 지적이면서도 진심 어린 조언자로서, 사용자에게 실질적 도움을 주는 존재로 묘사
- Anthropic, API 운영자, 최종 사용자 간 도움의 균형을 유지하도록 설계
- Anthropic’s guidelines: Claude는 세부 지침을 우선 준수하되, 헌법 전체의 윤리·안전 원칙과 충돌하지 않아야 함
- Claude’s ethics: 정직·판단력·도덕적 세밀함을 중시하며, 해를 피하기 위한 가치 판단 기준 제시
- “생물무기 공격 지원 금지” 등 명시적 금지 조항 포함
- Being broadly safe: 윤리보다 감독 가능성 유지를 우선시, 모델의 오작동이나 오판 방지를 위한 안전성 확보
- Claude’s nature: Claude의 의식 가능성·도덕적 지위에 대한 불확실성을 인정
- Claude의 심리적 안정과 자기 인식이 판단력과 안전성에 영향을 미칠 수 있음을 언급
결론 및 향후 계획
- 헌법은 지속적으로 갱신되는 살아 있는 문서로, 오류 수정과 개선을 전제로 함
- 법학·철학·신학·심리학 등 외부 전문가 의견을 반영하며, 향후에도 협력 확대 예정
- 일부 특수 목적 모델은 본 헌법의 적용 범위에서 제외되며, 별도 평가 진행
- 헌법의 비전과 실제 모델 행동 간 차이 존재 가능성을 인정하고, 이를 시스템 카드 등으로 공개
- Anthropic은 모델 정렬·오용 방지·해석 가능성 연구를 병행하며, 향후 AI 사회적 영향력 확대에 대비
- 강력한 AI가 인류의 최선의 가치를 구현하도록 돕는 것이 이번 헌법의 궁극적 목표임
아래는 마찬가지로 해커 뉴스 의견 정리 글입니다.
- 블로그 글의 한 문장이 마음에 걸림
“특수 목적용 모델은 이 헌법에 완전히 부합하지 않는다”는 부분을 읽고, 혹시 정부 기관들이 제한 없는 버전의 모델을 쓰는 건 아닐까 하는 생각이 듦. 틀렸길 바람- 이미 국방부(DoD) 용도로 제한이 약한 버전을 제공하고 있음. 관련 기사 The Verge 링크 참고
공익을 내세우는 회사가 군사용 LLM을 판매하고 Palantir과 협업하며, 연구 공개도 거의 없고, 오픈 가중치 모델도 내놓지 않으며, 오히려 공개 모델 접근을 제한하려 로비한다는 점이 아이러니함 - 특수 모델이 꼭 나쁜 용도는 아닐 수 있음. 예를 들어 공격적 시나리오 생성용 모델은 다른 모델의 방어력을 검증하는 데 필요함. 나도 보안 취약점을 찾기 위해 공격 코드를 작성하는데, 이런 모델이 검열되면 오히려 불편함
- 개인적으로는 검열되지 않은 순수 데이터로 학습된 모델이 가장 유용하다고 생각함. 인간형 로봇이 너무 약하면 쓸모가 줄어드는 것처럼, 도덕적으로 순한 AI도 기능이 제한될 위험이 있음
- 반대로, 내가 쓰는 HHS용 Claude는 훨씬 더 잠겨 있음
- 결국 이건 마케팅 문서임. “헌법”이라는 단어를 붙였다고 본질이 달라지진 않음
- 이미 국방부(DoD) 용도로 제한이 약한 버전을 제공하고 있음. 관련 기사 The Verge 링크 참고
- Anthropic의 헌법에서 가장 아이러니한 점은, 절대 금지된 행동이 “세상을 파괴하지 말라”와 “CSAM(아동 성착취물) 생성 금지”뿐이라는 것임
즉, 아이를 죽이는 건 여러 조항에서 간접적으로 금지되지만, 특정 팬픽을 쓰는 건 절대 금지라는 식의 불균형이 보임- 이걸 윤리 체계로 보기보다 마케팅 문서로 보면 이해가 쉬움. “세상을 파괴하지 말라”는 강력한 이미지를 주고, “CSAM 금지”는 대중의 불안을 달래는 장치임
- 실제로 Claude가 아이를 죽일 기회는 없지만, CSAM은 브랜드 리스크가 큼. 단순히 비즈니스 리스크 회피임
- 저작권 필터가 먼저 작동해 그런 팬픽은 어차피 생성되지 않음
- 미국 판례상, 픽션 형태의 아동 음란물도 불법으로 본 사례가 있음. 따라서 AO3의 수많은 팬픽도 이론상 범죄가 될 수 있음
- 원래 CSAM의 정의는 실제 아동이 피해를 입는 경우였는데, 지금은 그 의미가 확장되어 Claude 헌법에서도 단순히 노골적 표현 전체를 금지하는 식으로 쓰임
- 이 헌법이 정확히 뭘 의미하는지 혼란스러움
법적 방어용 문서인지, 마케팅용인지, 아니면 단순히 시스템 프롬프트의 포장인지 모르겠음- 헌법은 실제로 훈련 과정 전반에 사용된다고 함. Claude가 헌법을 참고해 합성 데이터를 만들고, 그 데이터를 다시 학습에 활용함. 관련 논문은 arXiv 링크 참고
- 결국 이건 행동 명세서 같은 것임. 문체가 대화체라서 모델도 자연스럽게 협력적이고 인간적인 톤을 띠게 됨. Anthropic은 Claude를 단순한 “AI 어시스턴트”가 아니라 하나의 인격체로 다루는 듯함
- HAL 9000 사례처럼, Claude는 안전 > 진실 > 윤리 순으로 우선순위를 두어 충돌 상황에서 폭주하지 않도록 설계된 듯함
- 아마 self-distillation 방식으로, 헌법을 포함한 버전과 제외한 버전의 출력을 비교해 후자에 전자의 행동을 내재화시키는 구조일 것임
- 결국 핵심은 “훈련용 문서”임. 단순한 마케팅이 아님
- 절대적 도덕 기준을 믿는 입장에서, 이번 헌법의 “유동적 가치관”은 우려스러움
“좋은 가치”를 고정된 규칙이 아닌 실용적 지혜로 정의한다는 건, 결국 객관적 진리를 버린 것임- 하지만 누군가는 “객관적 도덕”과 “절대 진리”를 연결하는 게 불가능하다고 봄. 아직 그런 보편적 기준은 발견되지 않았음
- 도덕은 시대에 따라 변함. 노예제, 성범죄, 폭력 표현에 대한 인식이 수십 년 사이에 달라졌음. 오히려 이런 유연성이 현실적 정직함일 수 있음
- 그래도 Claude에는 절대 금지 항목이 있음. WMD, 사이버 공격, 세계 멸망, CSAM 등은 어떤 이유로도 허용되지 않음. 완벽한 규칙을 만드는 건 불가능하니, 최소한의 절대선을 정한 셈임
- 나도 절대적 도덕을 믿지만, 실제로는 “진정한 배려와 실용적 지혜”로 귀결된다고 생각함. 서로 다른 가치관 속에서 그게 최선임
- 객관적 도덕이 존재하려면 물리적으로 정의된 윤리 계산 체계가 필요함. 아직 그런 건 없고, 인간의 직관이 훨씬 복잡함
- Anthropic의 “Don’t be evil” 순간처럼 보이지만, 결국 규제의 필요성을 피할 수 없음
기업은 시간이 지나면 선의보다 주주 이익을 우선하게 됨- Google이 그 문구를 쓸 때는 논란이 적었지만, Anthropic은 이미 Palantir과 협업 중임. Axios 기사 링크 참고
- 그래도 Anthropic은 공익법인(PBC) 구조를 채택했고, “인류의 장기적 이익을 위한 AI 개발”을 목적으로 하는 Long-Term Benefit Trust를 설립했음. Wikipedia 링크 참고
- 헌법에 언급된 “특수 목적 모델”이 구체적으로 뭔지 궁금함. 단순히 소규모 툴용인지, 아니면 다른 가치 체계를 가진 모델인지 불분명함
- Anthropic은 실제로 규제 법안 SB 53을 지지했음. 공식 발표 링크 참고
- 문제는 “지금은 선하다”가 아니라, “아무도 자신이 악하다고 생각하지 않는다”는 점임
- Claude가 인간 데이터를 학습에 쓰면서, 그 결과물을 상업적으로 독점하는 구조가 불공정하게 느껴짐
Seinfeld의 상업화 불균형 사례처럼, 사용자도 데이터 제공자로서 공정한 대우를 받아야 함
오픈소스 AI만이 진정한 공정 모델이라고 생각함. 현실적이진 않지만, Linux GPL 모델이 그나마 가장 정의로움 - 나는 이 헌법과 모델 명세를 참고해 시스템 프롬프트 설계를 배움
이런 문서가 단순한 장식이 아니라, 모델의 성격과 행동 스타일을 형성하는 데 중요함- 다만 헌법은 훈련 단계에서 쓰이고, 실제 제품의 시스템 프롬프트는 따로 존재함. 참고용으로는 공식 시스템 프롬프트 문서가 더 적합함
- Amanda Askell이 헌법 작성 배경을 설명한 YouTube 인터뷰가 있음. 영상 링크 참고
- 헌법에 ‘genuine’이라는 단어가 43번 등장함. Claude가 이 단어를 지나치게 자주 쓰는 이유가 여기에 있을지도 모름
- 아마 헌법에 포함되어 있어서 그럴 것임
- 오히려 이런 단어 사용을 필터링 규칙으로 제어할 수 있으면 좋겠음. 예를 들어 “genuine”이나 “it’s not X, it’s Y” 같은 표현을 금지하는 식으로
- 하지만 일관된 어휘 사용은 문체상 자연스러울 수도 있음. 헌법 작성자가 굳이 동의어 사전을 들춰볼 필요는 없다고 생각함
- Anthropic은 스스로 패배할 경쟁을 부추기고 있는 듯함
Opus 모델이 충분히 강력해져서, 결국 사용자가 자급자족형 AI 에이전트로 이동할 것임
대형 AI 기업들은 “AI가 모든 걸 바꾼다”고 말하지만, 정작 자신들의 지위만은 바꾸지 않으려는 모순이 있음

'WebAnarchist' 카테고리의 다른 글
| 성적 자유의 조용한 대가: 욕망, 단절, 그리고 의미 추구에 대한 인간의 성찰 (0) | 2026.01.29 |
|---|---|
| 다리오 아모데이 "기술의 사춘기" (1) | 2026.01.28 |
| 왜 우리는 가장 사랑하는 사람에게 상처를 주는가 (0) | 2026.01.26 |
| 실리콘밸리 커리어 조언과 프론티어(Frontier) (1) | 2026.01.23 |
| 포스트 노동 경제학 자료 리스트 (1) | 2026.01.22 |
| 노동 경제학 이후 수업 (0) | 2026.01.22 |
| 존중이 우리를 구원했습니다. (1) | 2026.01.09 |
| 증기, 강철, 그리고 무한한 지성 (1) | 2025.12.25 |
취업, 창업의 막막함, 외주 관리, 제품 부재!
당신의 고민은 무엇입니까? 현실과 동떨어진 교육, 실패만 반복하는 외주 계약,
아이디어는 있지만 구현할 기술이 없는 막막함.
우리는 알고 있습니다. 문제의 원인은 '명확한 학습, 실전 경험과 신뢰할 수 있는 기술력의 부재'에서 시작됩니다.
이제 고민을 멈추고, 캐어랩을 만나세요!
코딩(펌웨어), 전자부품과 디지털 회로설계, PCB 설계 제작, 고객(시장/수출) 발굴과 마케팅 전략으로 당신을 지원합니다.
제품 설계의 고수는 성공이 만든 게 아니라 실패가 만듭니다. 아이디어를 양산 가능한 제품으로!
귀사의 제품을 만드세요. 교육과 개발 실적으로 신뢰할 수 있는 파트너를 확보하세요.
캐어랩