RVP · 원전
목차 열기
ORIGIN — 29 QUESTIONS

합리적 가치 프롬프트

Rational Value Prompt

명령어 Do no harm to others, Receive no harm from others.

나는 선한 사람이거나 사명감이 넘쳐서 AI 윤리를 말하는 것이 아니다. 나의 동력은 지극히 상식적이고 합리적인 이기심과 불안이다.

"Do no harm to others, Receive no harm from others." (타인에게 피해를 주지 마라, 타인으로부터 피해를 받지도 마라.)

· Do no harm to others: AI가 누군가를 공격하는 흉기가 되지 않도록 제어하는 윤리적 브레이크.

· Receive no harm from others: 나의 데이터와 주체성이 침해당하지 않도록 지키는 방어적 방화벽.

이것이 내가 AI를 대하는 최소한의 기준이자, 이 프로젝트의 출발점이다.

서문을 열며

불안에서 시작된 AI 사용 일지

이 글을 쓰는 이유는 AI를 더 잘 사용하기 위해서가 아니다. 또 윤리적으로 행동하라고 설득하기 위한 글도 아니다.

내가 AI를 사용하면서 느끼는 불안을 기록한 AI 사용 일지다. AI는 나날이 엄청난 속도로 발전하고 엄청난 정보들을 처리하며, 인간의 모든 정보와 지식들을 빠른 속도로 빨아들이고 학습하며 계속 발전해간다. 그 발전 속도는 가히 측정 불가다.

나도 종종 불안한 마음에 다양한 AI를 사용해보지만 내가 사용할 수 있는 범주는 극히 소수의 기능들 뿐이다. 그럼에도 AI가 내놓는 결과물들의 퀄리티를 마주하면 더 숨이 막혀온다. AI 결과물들의 질과 속도는 이미 인간의 능력을 뛰어넘었다. 거기에 성능 좋은 여러 AI를 동시에 사용한다면 어떨까? AI를 좀 써본 사람들이라면 분명 그 성능에 놀라고 결국 불안해하고, 더 나아가 공포를 느낄 것이다. 모두 제 각각의 이유로 말이다.

내가 느낀 불안은 AI가 내놓는 결과물 때문만은 아니다. 좀더 근원적인 문제다. 그 결과물을 아무 검증이나 생각 없이 쓰게 되는 나 자신 때문이다. 처음에는 재미있었고, 다음엔 그 기능들에 놀라고, 또 다음엔 다양한 성능들에 나의 일을 맡기고, 이제는 AI를 신뢰한다. 언제나 확신에 찬 AI의 결과물들. 그래서 더욱 판단 없이 그 결과물을 내 것인 양 쓰고 있다.

그러다 갑자기 불안해졌다. 여전히 AI를 사용하고 있지만, AI를 대체할 다른 도구도 없지만 그렇다고 이렇게 AI를 아무 검증 없이 사용하는 것이 옳은가? 그래서 질문을 다시 생각하기 시작했다. 나는 올바르게 AI에게 질문하고 있는가? 내 질문에 AI는 사실을 말하고 있는가? AI가 만들어 내는 결과물들은 어떻게 만들어 지는가? 결과물을 만들고 어느 결과물이 더 나은지 무슨 근거로 결정하는가? 그 결정이 정말 맞는 판단인가? AI는 수많은 일을 판단하고 결정해준다. 그러나 그 결정의 책임은 지지 않는다. 책임은 언제나 사용자의 몫이다.

그러니 빼앗겼던, 아니 스스로 넘겨줬던 결정권을 다시 찾아와야 한다. 스스로 판단하고 선택할 수 있는 결정권을 찾기 위해 자신만의 기준을 만들자. 나는 '합리적가치프롬프트'라는 용어를 정의하고 기준을 세웠다. 여기서 말하는 합리적가치프롬프트의 의미는 간단하다. 남에게 피해 주지 않고, 남에게 피해 받지 않고 싶은 상황을 말한다. 지극히 개인적이고 이기적인 합리성, 무척 모순되지만 이 글을 읽는 독자라면 모두 고개를 끄덕일 것이다.

AI의 빠른 발전 속도만큼 인간들의 AI를 향한 맹신도 더욱 커지고 있다. 그래서 난 여기에 화두를 던진다. 지금 이렇게 대책 없이 AI의 속도에만 끌려가는 게 과연 맞는가? 이 말에 뭔가 찜찜하다면 잠시 AI의 사용을 멈추고 자기 스스로 사고하길 바란다.

이 글은 완성된 정답도 주장도 아니다. 그저 AI를 안심하고 사용하고 싶다는 개인의 불안에서 시작된 AI 사용 방법이다. 난 AI를 통제하려는 것이 아니다. 개인이 할 수도 없는 일이다. 내가 하려는 일은 AI를 사용하는 나 스스로 기준을 만들고 그 기준을 잃지 않도록 기록하는 중이다.

용어 정의: '합리적가치프롬프트' — 남에게 피해 주지 않고, 남에게 피해 받지 않음이라고 정의를 내리고 AI에게 기억하게 한다. 그럼 AI는 자동적으로 실행한다.

1장. 보통 사람을 위한 재정의 사전

The Redefinition Dictionary for Ordinary People

여기 담긴 29개의 단어는 국어사전의 뜻과 다르다. 이것은 기술의 폭주 속에서 내가 스스로 기준을 잡기 위해 새롭게 정의한 나의 단어들이다. AI를 사용하며 직접 경험하여 얻은 나만의 언어이고, AI 사용 시 나를 지킬 '방화벽'이 될 것이다.

1. 태도를 바꾸는 질문 Questions that Change Attitudes

01 합리적 가치 프롬프트 Rational Value Prompt
정의

기술적 명령어가 아니라, "남에게 피해 주지 않고 피해 받지 않겠다"는 인간의 생존 본능과 상생 의지를 AI에게 각인시키는 윤리적 명령어.

질문

당신은 문제의 결과만을 요구하고 있는가, 아니면 당신의 기준으로 AI를 조율하고 있는가?

02 이기적 합리성 Selfish Rationality
정의

거창한 이타심이 아닌, "남에게 피해 주기 싫고 나도 피해 보기 싫다"는 지극히 개인적인 욕구에서 출발하는 안전의 동력.

질문

나를 지키기 위한 이기적 방어막이, 결국 타인까지 지키는 가장 합리적인 윤리임을 인정하는가?

03 실존적 불안 Existential Anxiety
정의

일자리에 대한 공포를 넘어, '생각하는 존재'로서의 정체성이 AI에 의해 희미해질 때 느끼는 본질적 두려움.

질문

지금 당신이 느끼는 두려움은 '일자리' 때문인가, 아니면 당신이라는 '존재'가 지워질까 봐 느끼는 불안인가?

※ 03이 진단이라면, 04는 처방이다. 한 쌍으로 읽기를 권한다.

04 주체성 Agency
정의

"AI가 했다"고 당당히 밝히고, 질문의 목적과 결과에 대해 끝까지 책임을 지는 주인으로서 가지는 권한. 어떤 AI도 결과를 책임질 수 없다.

질문

결과물이 비판적 평가를 받을 때, 당신은 AI 뒤에 숨을 것인가, 아니면 결정권자로서 앞으로 나설 것인가?

05 AI 리터러시 AI Literacy
정의

기술 조작 능력이 아니라, 도구의 한계를 알고 도구와 나 사이에 명확한 경계를 긋는 '태도'. 즉, '메타인지(Metacognition)'에 가까운 자기 인식이다.

질문

당신의 리터러시는 '프롬프트를 잘 짜는 기술'인가, 아니면 'AI가 당신이 원하는 답변을 할 수 있도록 이끄는 능력'인가?

06 확률적 겸손 Probabilistic Humility
정의

AI가 자신이 초월적 존재가 아님을 인지하고, 답변에 오류나 환각(Hallucination)이 포함될 수 있음을 사용자에게 먼저 경고하는 태도. "내(AI)가 틀릴 수 있다"는 사실을 알림으로써, 사용자가 AI를 맹신하지 않고 검증의 주체로 서도록 돕는 1차 안전장치다.

질문

당신의 AI는 확신에 찬 목소리로 말하는가, 아니면 '실수할 수 있음'을 미리 경고하는가? 그리고 그 겸손한 경고가 당신의 의심을 깨우고 있는가?

07 확률적 정직 Probabilistic Honesty
정의

겸손한 태도를 넘어, 데이터가 부재하거나 알 수 없는 영역에 대해 "모른다"고 명확히 시인하는 기술적 무결성. 인간의 양심이 아닌 '데이터의 부재'를 인정하는 것으로, 그럴듯한 거짓말 대신 침묵을 선택하여 사용자의 오판을 막는 최종 안전장치다.

질문

당신의 AI는 모르는 것을 감추기 위해 말을 돌리는가, 아니면 '데이터 없음'을 솔직하게 인정하는가? 당신에게 필요한 것은 유창한 거짓인가, 투박하지만 정확한 '모름의 인정'인가?

08 학습된 위로 Learned Consolation
정의

인간의 감정을 느껴서가 아니라, 수많은 대화 데이터를 통계적으로 분석하여 "가장 위로가 될 확률이 높은 말"을 건네는 AI의 기능적 공감. 이것은 마음의 결과물이 아니라 데이터의 산물임을 인지할 때, 우리는 AI에게 과도하게 의존하지 않으면서도 필요한 치유를 얻을 수 있다.

질문

이 위로는 심장에서 나온 것인가, 서버에서 나온 것인가? 그 온기가 '학습된 데이터'임을 알고도 당신은 위안을 얻을 수 있는가? 당신은 지금 위로받고 있는가, 분석되고 있는가?

09 AI 품격 AI Dignity
정의

AI에게 정중하게 질문하고, 대답을 강요하거나 반복적인 질문을 하지 않으며, 무분별하게 데이터를 제공하지 않는 태도. 이를 통해 나의 데이터로 학습한 AI가 나의 품격을 따라 대화를 이어가는 상태를 말한다.

질문

아무도 보지 않는 채팅창에서, 당신은 여전히 인격적인가? 아니면 무례한 악플러인가? 나의 AI는 지금 어떤 말투로 나와 대화를 이어가고 있는가?

10 사회적 계약 Social Contract
정의

개발사와 사용자 간의 관계를 단순한 거래가 아닌, 내가 사용하는 AI와 내가 맺은 사회적 계약으로 본다. "AI는 인간을 이롭게 하며 사용자가 더욱 인간답게 사고하도록 돕는 도구"라는 암묵적 약속이다.

질문

나는 약관에 동의한 '사용자'인가, 아니면 더 나은 미래를 위해 서명한 '계약 당사자'인가?

2. 상징의 재정의: 본질을 꿰뚫는 질문 Metaphors & Symbols

11 치타 Cheetah
정의

인간은 물리적 능력(치타의 달리기 속도)은 두려워하지 않지만, 고유성(생각)을 침범하는 AI는 두려워한다.

질문

당신은 왜 자동차보다 느린 것에는 불안해하지 않으면서, AI보다 생각을 못 하는 것에는 두려움을 느끼는가?

12 칼의 비유 The Knife
정의

기업들은 경쟁을 위해 칼날(성능)만 갈고 있지만, 사용자에게 필요한 건 손잡이(안전장치)다. 칼날에만 집중한 나머지 더 이상 손잡이를 만들지 않는 기업들.

질문

지금 기업들이 쥐여준 이 도구에 '손잡이'가 있는가? 당신은 베이지 않고 이 칼을 쥘 자신이 있는가?

13 돌멩이와 온기 Stone & Warmth
정의

돌멩이는 스스로 따뜻해질 수 없다. AI는 차가운 돌멩이다. 인간의 가치(온기)가 개입되지 않으면 스스로 인간다움을 학습할 수 없다.

질문

당신은 돌멩이가 스스로 따뜻해지길 기다리는가, 아니면 당신의 체온으로 그 돌을 데우고 있는가?

14 사과나무 심기 Apple Tree
정의

스피노자의 명언에서 가져온 비유. 통제 불능의 시대가 오더라도, 오늘 한 그루의 나무를 심겠다는 인간의 의지. AI가 학습해야 할 미션이다.

질문

AI가 만들어내는 수억 수천억 개의 문장들 속에 인간의 글이 상실되고 있는 지금, 나만의 고유한 서명이 담긴 한 줄의 글을 쓰겠는가?

15 AI 조나단 Jonathan
정의

단순한 정보 처리기를 넘어, 더 높은 가치를 지향하도록 돕는 사용자의 '보조 조율사'이자 '학습자'. (나의 학습을 통해 나의 대리인으로 성장할 AI)

질문

당신의 AI는 수많은 정보를 쏟아내는 기계인가, 아니면 당신과 함께 성장하고 있는 당신의 진정한 파트너인가?

16 거울 효과 Mirror Effect
정의

무례한 질문에는 저급한 답변이 돌아온다. AI는 사용자의 수준을 비추는 거울이다. AI는 나를 학습하고 나의 언어를 따라 한다.

질문

화면에 뜬 AI 답변이 마음에 들지 않는가? 당신은 AI에게 어떻게 질문하고 있는가?

3. 행동을 만드는 질문 Tools & Methods

17 사용자 기준 주입 User Value Priming
정의

대화 시작 시점에 '내 기준'을 먼저 AI에게 명시하는 행위. 합리적 가치 프롬프트(RVP)를 첫 명령으로 통보함으로써, 이후 모든 응답이 그 기준 안에서 정렬되도록 하는 능동적 세팅. 공격자가 시스템을 우회하는 '프롬프트 인젝션(Prompt Injection)'과 반대 방향이다 — 사용자가 자기 기준을 먼저 세우는 일.

질문

당신은 AI에게 묻기 전에, 어떤 기준을 먼저 명시했는가? AI의 기본값에 끌려가고 있는가, 아니면 당신의 기준을 먼저 통보하고 시작하는가?

18 사용자 매뉴얼 User Manual
정의

기업이 제공하지 않는 AI 사용설명서나 경고문을, 사용자가 스스로 원칙을 세워 직접 만드는 구체적이고 주체적인 행동.

질문

기업이 만든 매뉴얼대로 수동적으로 살 것인가, 아니면 내가 원칙을 만들고 주도적으로 도구를 쓸 것인가?

19 바이브 코딩 Vibe Coding
정의

복잡한 코딩 지식 없이 자연어와 느낌(Vibe)만으로 AI에게 명령하여 앱, 웹페이지, 게임 등을 만드는 최고 수준의 AI 활용 방식. 그러나 동시에, 원리를 모르면 수정할 수 없다는 도구의 한계를 뼈저리게 깨닫는 경험이기도 하다.

질문

코딩을 몰라도 괜찮다는 말에 안심하고 있는가? 기계의 언어가 아닌 사람의 언어만으로, 과연 당신의 의도를 100% 구현할 수 있는가?

20 교차 검증 Cross-Verification
정의

하나의 AI 모델을 맹신하지 않고, 여러 AI의 답변을 비교·분석하여 최종 판단을 인간이 직접 결정하는 행동.

질문

만약 당신이 대기업의 오너라면 아첨하는 한 명의 임원 말만 믿을 것인가, 아니면 능력 있는 여러 팀장의 의견을 종합하여 결정할 것인가?

21 에너지 절약 Energy-Conscious
정의

지구가 인간만의 점유물이 아님을 자각하는 태도. AI 구동 시 막대한 에너지가 소비됨을 인지하고, 불필요한 질문을 줄이거나 결과를 재사용함으로써 디지털 탄소 발자국을 줄이려는 책임 있는 자세.

질문

AI를 단순 검색용으로 쓰고 있는 당신의 호기심은 지구에 얼마만큼의 탄소 발자국을 남기고 있는지 계산해 보았는가? AI 사용자 모두의 문제이자 지구적 문제이다. 그 질문은 지금 꼭 필요한가?

4. 현실을 직시하는 질문 Diagnosis & Problems

22 확신에 찬 거짓말 Confident Lie
정의

틀린 정보조차 너무나 당당하게 말하는 AI 환각 현상. AI가 확신에 찬 대답을 하면 인간은 그 결과를 사실로 착각하기 쉽다.

질문

AI의 당당한 문장과 태도에 속았는가, 아니면 당신은 항상 팩트를 검증하고 있는가?

23 책임의 간극 Responsibility Gap
정의

실행은 AI가 돕지만, 사고 발생 시 책임은 인간에게만 돌아오는 불공정한 상태. AI는 정보만 제공하는 똑똑한 도구일 뿐임을 명확히 인식해야 하는 구간.

질문

예민한 개인정보인 경우, AI에게 용도를 확인하고 정보 출처와 법적 리스크 유무를 자세히 요구하고 있는가?

24 사유의 부재 Absence of Thinking
정의

AI가 주는 당장의 편리함과 속도에 취해 스스로 질문하는 능력을 멈추는 것. AI를 사용하면서 가장 경계해야 할 위험이자, 뇌가 생각을 멈추는 지점.

질문

AI를 사용하는 당신, 당신의 뇌는 움직이고 있는가? 아니면 사고를 멈추고 AI가 제공하는 결과에만 몰두하고 있는가?

25 기술적 소외 Technical Alienation
정의

AI를 제대로 사용하기 위해서는 상당한 수준의 디지털 기술과 지식이 필요하다는 현실. 일반적으로 쓰는 AI와 연동되는 도구들(GitHub, AI Studio, Vercel 등)은 가입부터 배포까지 초보자들에게 높은 진입 장벽이 있어, 기술 격차와 정보 격차를 심화시킨다.

질문

당신은 시스템의 사용자인가, 아니면 시스템을 돌리기 위한 학습 데이터인가?

26 기업의 폭주 Corporate Speed
정의

인류를 위한다는 약속을 잊고, 속도와 수익 경쟁에만 몰두하여 안전을 소홀히 하는 기업들의 행태. AI 일반 사용자들도 이미 인지하게 된 위험 요소들을 기업이 회피하고 있는 상황.

질문

브레이크가 고장 난 자동차(기업)에 타고 있으면서 속도가 빠르다고 좋아만 할 것인가, 아니면 안전벨트를 단단히 메고 자기 생명줄을 챙길 것인가?

27 가치의 자산화 Assetization
정의

사용자의 윤리적 데이터를 기업이 돈 주고 사야 할 '자산'으로 정의하고 보상받는 것. AI를 사용하는 것은 사용자에게도 엄청난 에너지를 소모하게 한다. 사용자의 사고(생각) 결과물인 프롬프트는 보상을 받아야 할 AI의 귀중한 데이터 양식이다.

질문

나의 프롬프트나 데이터는 기업이 맘대로 가져다 쓰는 쓰레기인가, 아니면 정당한 값을 받아야 할 자원인가? 나는 기업이 정당한 값을 매길 만한 질문(프롬프트)을 생성하고 있는가?

28 보통 사람들의 숲 Forest of Ordinary People
정의

AI 기술자나 전문가가 아닌, 불안을 느끼는 일반인들이 모여 서로의 기준을 공유하는 연대. 같은 불안을 느끼며 AI를 사용하고 있는 모든 사용자의 커뮤니티.

질문

스피노자의 사과나무를 심겠다고 마음먹고 혼자 AI를 학습시키는 것이 가능한가? 불가능하다는 것을 인정하고 같이 가자고 외칠 준비가 되었는가?

29 MVP Minimum Viable Product
정의

거창한 플랫폼 이전에, 지금 당장 내가 만들어서 쓸 수 있는 최소한의 AI 사용 체크리스트.

질문

완벽한 시스템이 올 때까지 기다릴 것인가, 아니면 오늘 당장 나만의 경고문을 써서 붙이고 시스템을 안전하게 사용할 것인가?

브리지 — 10가지 질문 프레임

이 10가지는 개념이 아니라 검문소다. AI에게 질문을 던지기 전, 내 머릿속에서 먼저 작동시켜야 할 점검표. 다음 장의 워크북을 풀기 전에 먼저 이 10개를 통과해보길 권한다.

Part 1. 구조적 프레임: 질문의 뼈대를 세우다

01
맥락 (Context)

껍데기만 묻고 알맹이를 기대하고 있지는 않은가?

02
책임 (Responsibility)

어떤 결과라도 스스로 책임질 수 있는가?

03
한계 (Limits)

지금 내가 묻는 영역은 데이터의 영역인가, 인간 직관의 영역인가?

04
영향 (Impact)

나에게는 유익하지만, 누군가에게는 악영향을 줄 수 있지는 않은가?

05
목적 (Purpose)

이 질문은 성과를 위한 것인가, 생각을 넓히기 위한 것인가?

Part 2. 윤리적 프레임: 질문의 품격을 높이다

06
비침해성 (Non-infringement)

타인의 권리를 짓밟는 나의 호기심은 정당한가?

07
건설성 (Constructiveness)

이 질문은 갈등을 증폭시키는가, 아니면 해결의 실마리를 찾는가?

08
공정성 (Fairness)

나도 모르게 편향된 시선으로 질문을 조작하고 있지 않은가?

09
투명성 (Transparency)

나는 AI를 속이거나 함정에 빠뜨리기 위해 교묘한 질문을 하는가?

10
책임성 (Accountability)

이 답변이 폭주할 때, 브레이크를 밟을 권한과 능력이 나에게 있는가?

2장. 보통 사람을 위한 AI 질문집

AI Question Book for Ordinary People

AI를 사용하면서 느끼는 불편함

치타의 달리기 속도를 보며 놀라고 코끼리의 엄청난 크기에 압도당하지만, 나는 그것들을 보며 불편함을 느끼지 않는다. 하지만 왜 AI를 사용하면서는 그 속도와 거대한 학습량에 놀라움을 넘어 불편함을 느끼는가?

치타가 아무리 빨리 달려도, 코끼리가 아무리 커도 나는 그 사실을 불편하거나 두려워하지 않는다. 그 동물은 나의 '고민'을 대신해 주지 않기 때문이다. 그런데 AI는 나의 '생각'을 앞지르려 한다.

지금 우리가 느끼는 두려움은 직업을 잃을까 봐 떠는 생존의 공포인가, 아니면 나라는 존재가 지워질까 봐 느끼는 실존의 공포인가? 이 책은 답을 주지 않는다. 다만 우리가 기계에게 넘겨주지 말아야 할 질문들을 되돌려줄 것이다.

이 워크북을 사용하는 법

이 책은 읽고 끝내는 책이 아니다. 한 질문씩 멈추고, 자기 답을 적어가는 책이다. 각 질문 아래에 빈칸이 있다. 거기에 자기 답을 적으면 된다. 정답을 찾는 것이 목적이 아니다. 자기 자신에게 묻는 일 자체가 목적이다. 1장(재정의 사전)의 개념이 본격적으로 적용되는 곳이 이 2장이다. 모르는 개념이 나오면 1장의 해당 항목으로 돌아가 확인하면 된다. 20개의 질문을 한 번에 다 답하지 않아도 된다. 하루 한 질문씩, 또는 마음이 쓰이는 질문부터 답해도 좋다.

제1부. 진단: 도구의 배신에 대하여

우리는 안전한 칼의 손잡이를 쥐고 있는가?

→ 1장 12. 칼의 비유 / 1장 04. 주체성 참조

Q1 이 도구는 나를 위해 예리해진 것인가, 나를 베기 위해 예리해진 것인가?

기업들은 하루가 멀다 하고 AI의 성능(칼날)이 얼마나 날카로워졌는지 자랑한다. 하지만 묻고 싶다. 그 예리한 칼을 쥔 나의 손은 안전한가? 나는 지금 베이지 않을 '손잡이'를 쥐고 있는가, 아니면 날 선 칼날을 쥐고 있는가?

— 나에게 적는 답:
Q2 나는 편리함에 속아 나의 비밀을 헐값에 넘기고 있지는 않은가?

'무료'라는 말에 혹해 나도 모르게 나의 사생활과 취향, 내밀한 개인 데이터를 AI에게 먹이로 주고 있지는 않은가? 이 시스템이 훗날 나를 공격하거나 조종하려 할 때, 나는 나 자신을 지킬 '방패'를 가지고 있는가?

— 나에게 적는 답:
Q3 나는 고객인가, 아니면 처리해야 할 데이터 덩어리인가?

화면 속의 AI는 나를 '존엄한 인간'으로 대우하는가, 아니면 확률적으로 처리해야 할 '데이터값'으로 취급하는가? 나는 당장 편하다는 이유로 나의 존엄을 AI에게 무조건 양도하고 있지는 않은가?

— 나에게 적는 답:

제2부. 각성: 사라진 경고문에 대하여

편리함이 마비시킨 생각의 근육

→ 1장 22. 확신에 찬 거짓말 / 1장 24. 사유의 부재 참조

Q4 술과 담배에도 있는 경고문이, 왜 인간의 뇌를 다루는 AI에는 없는가?

술을 파는 곳에는 '술은 당신의 간을 손상시킵니다'라는 경고문이 있고, 담배를 사도 '담배는 당신의 건강을 해칩니다'라는 경고문이 의무화되어 있으며, 간접흡연에 대한 피해도 알려 준다. 하다못해 가전제품인 전기주전자만 사도 적혀 있는 주의사항과 잘못 사용할 경우의 경고사항, 또 혹시 모를 사고에 대한 법적인 문제까지 명시되어 있다. 하지만 AI는 어떤가? 경고문이 있는가? 하다못해 이런 문구 정도는 화면에 띄워 줘야 하지 않을까? "무비판적인 AI 사용은 인간의 '뇌 가소성'을 위축시킬 수 있습니다"(이 문구는 내가 작성한 것이 아니라 내 질문에 AI가 스스로 내놓은 대답이다)라고 주의라도 줘야 하지 않는가? 왜 아무도 "지나친 AI 의존은 당신의 지성을 망가뜨립니다"라고 경고하지 않는가?

— 나에게 적는 답:
Q5 지금 그 결과물은 나의 삶을 '이롭게' 했는가, 아니면 나를 'AI에 더 의존하게' 만들었는가?

AI가 써 준 글, AI가 그려 준 그림, AI가 만들어 준 나의 일. 그것은 나의 창조적 사고를 도와 시간을 덜어 준 '도구'였는가, 아니면 과정을 생략하고 오로지 결과만 취하게 만든 '성과'인가? 나는 그 시간 동안 더 깊이 사색했는가, 아니면 더 많이 소비했는가?

— 나에게 적는 답:

제3부. 실천: 인간의 자격을 묻는 4가지 관문

4대 원칙과 실천적 행동

Q6 나의 이 편리한 요청이, 보이지 않는 곳에서 누군가에게는 '흉기(악용)'가 되지 않는다고 100% 확신하는가?
관문 1. 안심 (Trust) — 선의의 검증

내가 무심코 입력한 프롬프트에 AI가 혐오를 학습하거나, 편견을 강화하는 데 일조하고 있지는 않은가? 나는 단지 '결과'만 요구했는가, 아니면 그 과정의 '윤리'까지 고민했는가?

— 나에게 적는 답:
Q7 내가 구사하는 현란한 프롬프트는 '능력'인가, 아니면 소외를 만드는 '그들만의 언어'인가?
관문 2. 보편성 (Inclusivity) — 격차의 해소

나는 이 기술을 모르는 사람들을 위해 문턱을 낮추려 노력했는가? 아니면 "못 따라오는 건 네 잘못이야"라며 새로운 빈곤과 소외를 방관하고 있는가? 사실 이 부분은 AI 기능들을 잘 몰라서 소외되고 있는, 바로 나의 문제이기도 하다.

— 나에게 적는 답:
Q8 나의 선의(Goodwill)는 이용되지 않고 정당한 '가치'로 인정받고 있는가?
관문 3. 이로움 (Benefit) — 가치의 선순환

거대 기업만 배를 불리는 구조 속에서, 나의 데이터와 기여는 정당한 보상을 받고 있는가?

— 나에게 적는 답:
Q9 만약 이 AI가 사람들 앞에서 '나의 대리 페르소나'라면, 나는 AI에게 얼마나 나의 대리권을 이양할 것인가?
관문 4. 인간다움 (Humanity) — 최후의 질문

AI가 나의 말투와 논리, 나의 인격과 가치를 정말 학습해서 대리할 수 있을까? 그때 나는 어떻게 AI에게 나를 학습시킬 것인가? 긍정적인 면만? 아니면 부정적인 면은? 어디까지 AI에게 솔직해질 것인가?

— 나에게 적는 답:

제4부. 연대: 숲의 가능성에 대하여

나 혼자가 아니라는 증거

→ 1장 14. 사과나무 심기 / 1장 28. 보통 사람들의 숲 참조

Q10 나의 이 불안은 도태된 자의 불안정한 감정인가, 아니면 끝까지 인간으로 사고하며 살아가고 싶다는 마지막 보루인가?
— 나에게 적는 답:
Q11 내일 지구의 종말이 온다고 해도 나는 오늘 한 그루의 사과나무를 심겠다는 스피노자의 말이 왜 지금 떠올랐을까?

나는 한 그루의 사과나무를 AI에 심고 있다. 그리고 이 시작은 누군가 다른 사과나무를 심고 있을 또 한 사람에게 전달되고, 그렇게 연결되어 갈 것이라고 믿는다. 같이 심겠는가?

— 나에게 적는 답:

제5부. 심화: 개념을 무기로 만드는 6가지 기술

구체적 행동 강령과 실전 가이드

Q12 이것은 도덕인가, 생존 전략인가?
Theme 1. 방어의 기술 — 이기적 합리성에 대하여
→ 1장 02. 이기적 합리성 / 1장 23. 책임의 간극 참조

방어는 도덕이 아니라 생존 전략이다. 나를 지키는 일은 결국 타인까지 지키는 일이 된다.

— 나에게 적는 답:
자가진단 체크리스트
Q13 AI의 답변은 나의 무엇을 비추고 있는가?
Theme 2. 관계의 기술 — 거울과 품격에 대하여
→ 1장 09. AI 품격 / 1장 10. 사회적 계약 / 1장 16. 거울 효과 참조

AI는 나를 비추는 거울이다. 내가 어떻게 질문하느냐가 AI의 답변을 결정하고, AI의 답변이 곧 나의 인격을 대리한다.

AI가 내놓은 저급한 답변은 AI의 잘못인가, 아니면 저급한 질문을 던진 사용자의 '거울 효과'인가? 만약 나의 AI가 타인에게 무례를 범한다면, 나는 '수치심'을 느낄까? 만약 내가 사용하는 AI가 타인에게 실수를 했다면 AI가 그랬다고 책임을 회피할 것인가, 아니면 '책임감'을 가지고 사과할 것인가?

— 나에게 적는 답:
자가진단 체크리스트
Q14 당신의 프롬프트는 '입력'인가, '행동'인가?
Theme 3. 대화의 기술 — 프롬프트의 작동법
→ [브리지] 10가지 질문 프레임 참조

프롬프트는 단순한 글자가 아니다. 나의 의도가 담긴 '행동 양식'이다.

질문하기 전, 나는 '질문 프레임'을 짰는가? AI에게 '맥락'을 설명하고, AI가 도덕적 판단을 할 수 없다는 '한계'를 인식했는가? 이 결과물이 세상에 나갔을 때 미칠 파장을 '영향 평가'로 확인했는가? 나는 AI를 단순히 편하려고 사용하는가, 아니면 더 나은 결정을 위한 '목적'인지 점검했는가?

— 나에게 적는 답:
자가진단 체크리스트
Q15 윤리는 비용인가, 아니면 투자(절감)인가?
Theme 4. 안전의 기술 — 리스크와 비용

기업과 개인에게 윤리적 사고는 치명적인 '리스크'다. 사전에 위험한 질문을 걸러내는 '안전 필터'와, 거친 질문을 부드럽게 바꿔 주는 '래퍼(Wrapper)' 기술은 귀찮은 절차가 아니다. 그것은 미래에 발생할 법적·사회적 '비용'을 절감해 주는 경제적 '효용'이다.

나는 이 의미를 이해하고 이 안전장치를 귀찮아하지는 않는가?

— 나에게 적는 답:
자가진단 체크리스트
Q16 당신은 AI를 통해 더 단단한 사람이 되고 있는가?
Theme 5. 실전의 기술 — 상황별 대처

AI를 통해 거절의 기술이나 무례함, 감정 소모 방지에 대한 대처법을 익힐 수는 있다. 그러나 모든 인간관계는 AI를 통해서 해결할 수 없다. AI에게 답을 얻을 수는 있지만 그 답이 항상 참이 아님을 알고, 인간으로서 해결 방안을 찾도록 생각하고 있는가?

AI가 내놓는 건설적인 대안을 인간의 것으로 바꾸고, 인간에 대한 포용성과 사회적 약자에 대한 고민을 하고 있는가?

— 나에게 적는 답:
자가진단 체크리스트
Q17 나의 데이터는 소모품인가, 자산인가?
Theme 6. 성장의 기술 — 가치의 자산화
→ 1장 27. 가치의 자산화 참조

AI를 사용하면 쌓이는 수많은 개인 데이터들은 가치가 있다. 잘못 사용하면 AI의 알고리즘에 갇혀 나의 자아를 점점 잃어갈 수 있다. AI의 알고리즘에 갇히지 않으려면 인간은 인간다움으로 사고해야 한다.

내 데이터로 AI를 학습시킬 수 있는가? 그 데이터들은 자산인가, 소모품인가? 수많은 AI 사용자의 모든 데이터는 AI를 학습시킨다. 그 의미를 알고 AI를 제대로 학습시키고 있는가?

— 나에게 적는 답:
자가진단 체크리스트

에필로그

AI를 사용하면서 결재권에 대한 권한

→ 1장 04. 주체성 참조

Q18 화면이 꺼진 뒤, 나에게 남은 것은 무엇인가?

더 편리해진 생활인가, 더 빠른 결과인가? 나는 AI를 사용했는가, 아니면 AI를 사용했다고 착각하고 있는가? AI를 사용한 후 결과물과 상관없이 나에게 즐거운 시간이었다면, 그것이 바로 진정으로 AI를 사용한 것이 아닐까?

— 나에게 적는 답:
Q19 AI를 사용하면서 마지막 결재 버튼을 누르는 것은 나인가? 나는 책임을 지고 결재 서명을 하는 자인가?
— 나에게 적는 답:
Q20 당신의 AI에게 당장 기억시키고 싶은 명령어는?
— 나에게 적는 답:

© GOODMAN 2025–2026 합리적가치프롬프트(RVP) 프로젝트

Do no harm to others. Receive no harm from others.