AI를 쓰면서 느끼는 나의 불안
블로그2
AI를 쓰면서 느끼는 나의 불안
— 나는 왜 AI를 완전히 믿지 못하는가??
AI를 쓰면서
나는 자주 묘한 불안을 느낀다.
틀린 말을 할까 봐서가 아니다.
오히려 너무 그럴듯하게 말할 때 더 불안하다.
왜일까?
— AI는 너무 자신 있게 말한다
AI는 거의 망설이지 않는다.
확신에 찬 문장으로 대답한다.
심지어 틀릴 때조차도.
문제는 여기에 있다.
인간은 ‘자신감 있는 말’을
진실에 가깝다고 느끼는 존재다.
그래서 인간들은
AI의 답변이 논리적으로 그럴듯하면
대부분 검증을 멈춘다.
AI는 거짓말을 하려는 의도는 없다.
다만 틀린 정보를 ‘틀린 줄 모르고’ 말할 수는 있다.
왜? 그렇게 학습된 AI 구조의 문제이다.
— AI는 책임을 지지 않는다
AI는 결정을 대신해줄 수 있다.
추천도 해주고, 비교도 해주고, 요약도 해주고, 인간의 많은 일을 처리해준다.
하지만 결과에 대한 책임은??
항상 인간의 몫이다.
- 잘못된 판단
- 왜곡된 정보 인용
- 부정확한 결정
AI는 손해를 보지 않는다.
AI는 책임을 지지 않는다.
그럼에도 우리는
AI의 판단을 ‘내 판단처럼’ 사용한다.
난 여기서 불안이 생긴다.
— 문제는 AI가 아니라, 사용하는 방식이다
그래서 나는 이렇게 생각하게 된다.
AI가 위험한 게 아니라,
아무 기준 없이 쓰는 방식이 위험한 건 아닐까?
- 어떤 질문을 해도 되는지?
- 어떤 답변은 의심해야 하는지?
- 무엇을 기준으로 판단해야 하는지?
이런 기준이 없을 때,
인간은 AI를 과신하거나
막연하게 두려워한다.
— 내가 원하는 건 ‘완벽한 AI’가 아니다
나는 거짓말을 하지 않는
완벽한 AI를 원하지 않는다.
그건 현실적이지도 않고,
어쩌면 더 위험하다.
내가 원하는 건 이것이다.
AI를 사용할 때
내가 어떤 태도로,
어떤 기준으로 판단하고 있는지
스스로 인식할 수 있는 구조
AI를 통제하는 게 아니라
AI를 사용하는 나 자신을 점검하는 장치다.
물론 계속 실험중이고 방향은 언제든 변할 수 있다.
— 실험1 ‘합리적 가치 프롬프트’를 생각하게 됐다
합리적 가치 프롬프트는
AI를 더 똑똑하게 만들기 위한 것이 아니다.
AI를 쓰는 인간의 태도를 고정하기 위한 장치다. 예를 들어
- 무조건 믿지 않기
- 맥락을 확인하기
- 판단의 책임을 인식하기
이런 기준을
매번 새로 고민하지 않아도 되게 만드는 것.
쉽지만, 의미 있는 선택.
그리고 반복 가능한 행동.
난 불안을 제대로 인식하고 안심하고 쓸 수 있는 AI를 사용 할 수 있기를 바라며......
새로운 AI 사용 방식을 생각하고 실험해 가는 과정을 이 곳에 남기고 있다.