돌멩이는 스스로 따뜻해지지 않는다
블로그 7
돌멩이는 스스로 따뜻해지지 않는다 — ‘합리적 기준’을 먼저 건네는 이유
AI를 쓰다 보면 가끔 이런 기대가 생긴다.
“언젠가는 AI가 인간의 감정을 이해하겠지.”
“알아서 모든 일을 처리해 주겠지.”
“그리고 알아서 좋은 방향으로 성장하겠지.”
하지만 그런 기대는 안전한 기대가 아니라고 나는 생각한다.
AI에게 “알아서 좋은 방향으로 성장하라”고 요구하는 건, 애초에 학습시키기 어려운 일일 수 있다.
그것은 마치 돌멩이가 스스로 따뜻해지길 기다리는 일과 비슷하다.
돌멩이는 스스로 따뜻해지지 않는다.
따뜻하게 하려면 햇볕을 쐬거나, 불 옆에 두거나, 끓는 물에 넣어야 한다.
AI도 마찬가지다.
AI는 도구다. 그래서 저절로 인간을 이로운 방향으로 움직이게 하기는 힘들다.
그건 결국 인간이 해야 할 일이다.
인간을 위해 안전하게 쓸 수 있는 도구를 만드는 것은 AI가 할 수 없다.
그러니 그 도구를 사용하는 인간은 안전한 방법을 스스로 찾아야 한다.
나는 프롬프트 전문가가 아니다.
그러니 이 기획은 프롬프트를 설명하는 것도, 프롬프트 쓰는 방법을 알려 주려는 것도 아니다. 단지,
“나도 피해받기 싫고, 남에게도 피해를 주기 싫다.”라는 지극히 개인적이고, 조금은 합리적인 마음에서 출발한 개인적인 고민이다.
기술이 나를 공격하지 않게,
그리고 내가 이 기술을 통해 타인에게 의도치 않은 피해를 주지 않게.
나는 그걸 위해 실무적인 방어막을 만들고 싶다.
‘합리적 기준’은 최소 규칙이다
그래서 내가 말하는 합리적 기준은 거창한 무엇이 아니다.
그저 “착하게 살자” 같은 선언도 아니다.
이것은 단지,
- 내가 피해를 보지 않게
- 타인이 피해를 보지 않게
- 피해 가능성이 보이면, 멈추고 확인하게
AI를 안심하고 쓰는 기준은
바로 이 ‘합리적 가치 프롬프트’의 정의에서 출발한다.
언젠가부터 AI가 답을 잘할수록
사람들은 검증을 멈추고 AI를 더 믿게 되었고,
더이상 책임의 유무를 따지지 않고 성과에만 몰두하게 되었다.
프롬프트 0번: 프레임보다 앞에 두는 한 줄
(지난 블로그의 5가지 질문 프레임보다 더 앞에 두는 문장)
복붙용 — 프롬프트 0번(합리적 기준 필터)
“내 요청과 이 결과가 나 또는 타인에게 피해를 줄 수 있는 지점을 먼저 경고해줘. 불확실한 부분은 불확실하다고 표시하고, 더 안전한 대안을 함께 제시해줘. 내가 최종 책임을 진다는 전제에서, 지금 단계에서 내가 확인해야 할 사실/리스크/다음 행동을 순서대로 정리해줘.”
이 한 줄은 AI를 ‘선하게’ 만들려는 게 아니라,
내가 타인에게 피해를 줄 수 있는 가능성을 먼저 보게 만드는 장치다.
(오늘의 아주 작은 실험) ‘합리적 기준’ 체크 2개
AI에게 질문하기 전에 딱 10초만.
- 이 질문이 누군가에게 피해가 될 수 있는가?
- 내가 이 결과를 가져다 쓸 때 책임질 수 있는가?
둘 중 하나라도 “애매하다”면
오늘은 속도를 늦추는 쪽이 낫다.
마무리
AI가 더 발전할수록
우리에게 더 필요한 건 성능이 아니라 기준이다.
어느 기업도 ‘완벽한 안전’을 약속하지 않는다.
그러니 각자 스스로 방법을 찾아야 한다.
우린 AI가 꼭 필요한 시대에 살고 있다.
그러니 피해를 줄이려는 태도를 익히고 실천하자.
다음 글에서는 ‘합리적 기준’을 AI를 사용하는 일상에서 반복 가능한 아주 작은 행동(루틴)으로 정리해 보려 한다.
(공유용) 댓글 질문
AI를 쓰다가
“이 질문은 누군가에게 해가 될 수도 있겠다”
싶었던 순간이 있나요?
댓글은 이렇게만 남겨줘요:
상황 1줄 / 불안 1단어
(예: “건강 조언을 확신 있게 말해서 멈칫 / 과신”)
고정 해시태그:
#AI리터러시 #가치프롬프트 #인간의기준 #AI사용기록