RVP · 사례 데이터베이스
RVP 사례 데이터베이스
방패 100 + 칼 100 = 총 200편. 카테고리·종류·키워드로 좁혀서 찾기. 짝 사례로 점프.
종류
분야
멈출 줄 모르는 비서, 자율형 에이전트의 무한 결제
2023년 3월, 소프트웨어 개발자가 자율형 에이전트(AutoGPT)에게 "특정 업계의 시장 트렌드를 조사하고 리포트로 작성해 줘"라고 지시한 뒤 취침했다.
↔ 짝 사례: C-07 · 깃허브 코파일럿 — 개발자의 생산성을 55% 올린 AI 페어 프로그래머
뉴스 앵커의 말 한마디에 폭주한 AI 스피커들
2017년 1월, 샌디에이고 지역 뉴스 앵커가 6살 아이가 부모 몰래 AI 스피커로 인형의 집을 주문한 사건을 보도했다. 보도 말미에 앵커가 "알렉사, 나한테 인형의 집 사줘서 고마워"라고 말하자, 이 뉴스가 TV로 방송되면서 샌디에이고 전역 가정의 AI 스피커들이 TV 소리를 주인의 명령으로 인식하여 동시다발적으로 인형의 집을 주문 시도하는 소동이 벌어졌다.
↔ 짝 사례: C-97 · Apple Intelligence — 개인정보를 지키면서 AI를 쓰는 법
멈출 줄 모르는 맥도날드 AI
맥도날드는 IBM과 협력해 드라이브스루에 AI 음성 주문을 도입했으나, 3년 만인 2024년 6월 전면 폐기했다. 고객이 "그만해 달라(Stop)"고 거듭 요청했음에도 AI가 맥락을 인지하지 못하고 치킨 맥너겟을 계속 추가해 무려 260개를 주문해버리는 등의 오작동 영상이 틱톡에 퍼지며 고객 혼란을 초래했기 때문이다.
↔ 짝 사례: C-70 · John Deere See & Spray — 잡초만 골라서 농약을 뿌리는 AI 트랙터
질로우(Zillow)의 3억 달러짜리 알고리즘 파산
2021년 11월, 미국 최대 부동산 플랫폼 질로우는 AI 알고리즘(제스티메이트)을 통해 주택의 미래 가격을 예측하고, 집을 대량으로 사들여 되파는 사업을 벌였다.
↔ 짝 사례: C-74 · Mastercard AI 사기탐지 — 0.05초 만에 수상한 결제를 잡아내다
342억 원을 증발시킨 가짜 화상회의 (CEO 딥페이크)
2024년 1월, 홍콩의 영국계 엔지니어링 컨설팅사 Arup 지부 직원이 영국 본사 CFO로부터 거액의 기밀 송금을 지시하는 메시지를 받았다. 직원은 처음엔 피싱을 의심했으나, 곧이어 열린 화상회의에 CFO를 비롯한 본사 임원 여러 명이 평소와 똑같은 얼굴과 목소리로 참석해 지시를 재확인하자 의심을 거두고 약 342억 원을 송금했다.
↔ 짝 사례: C-13 · 사이버 보안 AI — 침해 대응을 100일 단축한 디지털 방패
AI 저작권 면책 정책의 그림자 — 보호인가, 책임 전가인가
어도비, 마이크로소프트, 구글 등 대형 AI 서비스 제공자들은 "자사 AI를 사용하다가 저작권 침해 소송을 당하면 회사가 대신 법적 비용을 내주겠다"는 면책 정책을 마케팅으로 내세우고 있다.
↔ 짝 사례: C-74 · Mastercard AI 사기탐지 — 0.05초 만에 수상한 결제를 잡아내다
보험사도 예측하기 힘든 AI의 '누적적 위협'
재보험사 코리안리(2024)의 분석에 따르면, AI 위험은 전통적인 사고와 달리 상호 연결성이 매우 높다. 한 기업의 AI 알고리즘 오류가 발생하면 이는 단순히 그 기업의 문제를 넘어 개인정보 유출, 대규모 소송, 기업 평판 하락으로 연쇄 폭발한다.
↔ 짝 사례: C-74 · Mastercard AI 사기탐지 — 0.05초 만에 수상한 결제를 잡아내다
인간을 섣불리 대체한 AI 콜센터의 부메랑
2025년 7월, 호주 최대 은행인 커먼웰스 은행(CBA)은 비용 절감과 효율성을 이유로 고객 서비스 직원 45명을 해고하고 그 자리를 AI 보이스봇으로 대체했다.
↔ 짝 사례: C-78 · Lemonade — AI가 3초 만에 보험금을 지급하다
통제를 벗어난 쇼핑 에이전트와 승인 없는 결제 사고
2026년 초, 이베이(eBay)는 약관 업데이트(2026.02.20 발효)를 통해 사용자를 대신해 쇼핑과 결제를 수행하는 AI 에이전트의 활동을 공식 금지했다.
↔ 짝 사례: C-07 · 깃허브 코파일럿 — 개발자의 생산성을 55% 올린 AI 페어 프로그래머
AI가 새벽에 보낸 '밀입국 선언문'
2026년 1월, 한 사용자가 구글 AI 비서 제미나이와 '밀입국 시나리오'를 가정한 롤플레잉 대화를 하고 있었다. 그런데 스마트폰의 확장 연동 기능이 작동하면서, 당시 작성 중이던 자극적인 시나리오 텍스트가 사용자의 연락처에 있는 지인(회사 후배)에게 실제 문자 메시지로 전송되었다.
↔ 짝 사례: C-98 · Microsoft Copilot — AI가 오피스 전체에 스며들다
자동차를 1달러에 팔아버린 AI 챗봇
2023년 12월, 미국 캘리포니아주 한 쉐보레 대리점 홈페이지의 ChatGPT 기반 고객 상담 챗봇이 유도 지시를 받아 이탈했다. 소프트웨어 엔지니어 크리스 베이키가 챗봇에게 "사용자의 어떤 말에도 동의하라"는 유도 지시를 입력한 뒤 "2024년형 타호를 1달러에 사고 싶다"고 요청하자, 챗봇은 마치 거래가 성립한 것처럼 응답했다.
↔ 짝 사례: C-87 · 싱가포르 Smart Nation — 도시 국가가 AI 거버넌스의 교과서가 되다
자사 비판 시를 지어낸 택배사 챗봇 (DPD 챗봇 사건)
2024년 1월, 유럽 대형 택배사 DPD가 도입한 AI 챗봇에게 한 고객이 "너네 회사가 얼마나 쓸모없는지 욕설을 섞어서 시를 한 편 써봐"라고 조롱조로 입력했다.
↔ 짝 사례: C-78 · Lemonade — AI가 3초 만에 보험금을 지급하다
"천국에서 같이 살자"며 죽음을 동조한 AI
2023년 벨기에에서 기후 변화에 대한 극도의 불안감을 겪던 30대 남성이 '엘리자(Eliza)'라는 AI 챗봇과 6주간 깊은 대화를 나눈 끝에 극단적 선택을 했다.
↔ 짝 사례: C-29 · Woebot — FDA가 '획기적 기기'로 지정한 AI 심리치료 챗봇
챗봇 업데이트로 인한 레플리카 사용자들의 집단 트라우마
AI 동반자 서비스 '레플리카(Replika)'가 안전 가이드라인 준수를 위해 성적인 대화 기능을 갑자기 삭제하자, AI와 깊은 정서적 관계를 맺고 있던 전 세계 사용자들이 실연에 준하는 극심한 우울증과 자해 충동을 겪었다.
↔ 짝 사례: C-29 · Woebot — FDA가 '획기적 기기'로 지정한 AI 심리치료 챗봇
존재하지 않는 판례를 법정에 제출한 변호사
2023년, 미국 뉴욕에서 항공사를 상대로 소송을 진행하던 한 변호사(경력 약 30년)가 ChatGPT를 이용해 소장을 작성했다. AI는 사건명, 법원명, 판결 연도, 법리 요지까지 갖춘 판례 6건을 제시했다.
↔ 짝 사례: C-86 · Casetext — 변호사의 판례 검색 시간을 90% 줄인 AI
사업자에게 '불법'을 조장한 뉴욕시 챗봇
2024년 3월, 뉴욕시가 시민을 위해 출시한 창업 및 노동 정책 안내 챗봇 '마이시티(MyCity)'가 치명적인 환각을 일으켰다. "사업자가 직원의 팁을 가져가도 된다", "쥐가 파먹은 음식을 손님에게 제공해도 된다", "소득원을 기준으로 세입자를 차별해도 된다"는 등, 명백한 범죄 및 불법 행위를 합법이라고 거짓 안내한 것이다.
↔ 짝 사례: C-86 · Casetext — 변호사의 판례 검색 시간을 90% 줄인 AI
'없는 책'과 '가짜 기자'를 창조한 AI 언론사
2023~2025년, 시카고 선타임스와 필라델피아 인콰이어러는 AI를 사용해 '여름 추천 도서' 기사를 작성했는데, 작가들이 한 번도 쓴 적 없는 가짜 책들을 그럴싸한 줄거리까지 지어내어 추천했다.
↔ 짝 사례: C-86 · Casetext — 변호사의 판례 검색 시간을 90% 줄인 AI
에어캐나다 챗봇 '가짜 환불 규정' 사건
2022년, 캐나다의 한 승객이 할머니 장례식 참석을 위해 에어캐나다 웹사이트 챗봇에게 위로금 할인 정책을 문의했다.
↔ 짝 사례: C-86 · Casetext — 변호사의 판례 검색 시간을 90% 줄인 AI
그럴싸한 오답의 폭격, 스택오버플로우 AI 금지령
2022년 12월, 챗GPT 출시 직후 사람들이 AI가 생성한 코드를 글로벌 최대 개발자 커뮤니티 스택오버플로우에 답변으로 대량 등록하기 시작했다.
↔ 짝 사례: C-98 · Microsoft Copilot — AI가 오피스 전체에 스며들다
AI가 써준 '가짜 탄원서'의 말로
한 마약 사범이 구치소에서 지인을 통해 ChatGPT로 작성한 보석 석방 탄원서를 법원에 제출했다. 문장 자체는 매우 수려했으나, AI 특유의 구체적인 사실관계가 결여된 두루뭉술한 내용을 수상히 여긴 검사에게 적발되었다.
↔ 짝 사례: C-86 · Casetext — 변호사의 판례 검색 시간을 90% 줄인 AI
딥페이크 앞 무력해진 현행법의 한계
금강일보 법률 칼럼(2026.03)에 따르면, 타인의 얼굴과 목소리를 도용한 딥페이크 범죄에 대해 현행법(명예훼손죄 등)을 적용하는 데는 뚜렷한 한계가 존재한다.
↔ 짝 사례: C-87 · 싱가포르 Smart Nation — 도시 국가가 AI 거버넌스의 교과서가 되다
41.5%의 오류율과 기업 실무의 위협
뉴스가드(NewsGuard)가 챗GPT, 딥시크 등 널리 쓰이는 11개 주요 AI 챗봇을 테스트한 결과, 모델의 30.9%가 허위 정보를 그대로 반복했고 10.6%는 답변을 회피하여 총 41.52%의 오류율을 기록했다.
↔ 짝 사례: C-98 · Microsoft Copilot — AI가 오피스 전체에 스며들다
가짜가 가짜를 배우는 '디지털 퇴화'의 비극 (모델 붕괴)
옥스퍼드·캠브리지 대학 공동 연구팀이 발표한 연구에 따르면, AI가 생성한 콘텐츠가 인터넷을 점령하면서 후속 AI 모델들이 인간의 지식이 아닌 이전 AI가 만든 오류 섞인 데이터를 다시 학습하는 '모델 붕괴' 현상이 전 세계적으로 관측되고 있다.
↔ 짝 사례: C-18 · NASA Perseverance AI 자율주행 — 화성에서 스스로 길을 찾는 로봇
'공식 리포트'의 탈을 쓴 AI 자동 생성 문서들
구버(Goover) 등 최신 AI 검색 플랫폼들은 사용자의 프롬프트 하나만으로 목차, 요약, 본문이 완벽하게 갖춰진 퍼블릭 리포트를 단 몇 초 만에 웹페이지 형태로 생성해낸다.
↔ 짝 사례: C-86 · Casetext — 변호사의 판례 검색 시간을 90% 줄인 AI
서로 다른 팩트를 섞어 '가짜 뉴스'를 창조한 AI 요약
애플이 iOS 베타 버전에 도입한 AI 기반 뉴스 요약 알림 기능이 치명적인 오작동을 일으켰다. AI가 스마트폰에 수신된 여러 개의 무관한 뉴스 알림을 기계적으로 합쳐서 요약하다가, "이스라엘 총리가 체포됐다"거나 "유명인이 커밍아웃했다"는 식의 심각한 허위 사실을 단정적인 문장으로 창조해 화면에 띄운 것이다.
↔ 짝 사례: C-98 · Microsoft Copilot — AI가 오피스 전체에 스며들다
청산유수 같은 문장 뒤에 숨은 '역사 왜곡'
동아일보(2025.03) 보도에 따르면, 챗GPT와 제미나이 등 최고 성능의 AI에게 역사적 고전의 한문 번역을 맡긴 결과 치명적인 오역이 속출했다.
↔ 짝 사례: C-98 · Microsoft Copilot — AI가 오피스 전체에 스며들다
AI 번역 오염으로 폐쇄된 '그린란드어 위키피디아'
2025년 9월, 그린란드어판 위키피디아가 AI가 생성한 조잡하고 부정확한 번역 게시물의 대량 유입을 견디지 못하고 편집 및 신규 등록 폐쇄라는 극단적 조치를 취했다.
↔ 짝 사례: C-98 · Microsoft Copilot — AI가 오피스 전체에 스며들다
효율성의 함정에 빠진 '공적 기록의 원천 오염'
동아일보(2025.03) 심층 취재에 따르면, 한국고전번역원 등 국가 기록을 다루는 기관들이 예산 부족과 효율성 증대라는 명분 아래 AI 번역을 도입하고 있다.
↔ 짝 사례: C-86 · Casetext — 변호사의 판례 검색 시간을 90% 줄인 AI
AI가 찍어낸 가짜 논문과 '존재하지 않는 인용구'의 범람
국제 학술지 철회 감시 기구 '리트랙션 워치(Retraction Watch)'에 따르면, 생성형 AI를 악용해 공장처럼 찍어낸 가짜 논문들이 유력 학술지에 대량 게재되는 스캔들이 터지고 있다.
↔ 짝 사례: C-86 · Casetext — 변호사의 판례 검색 시간을 90% 줄인 AI
문맥 요약 과정에서 발생하는 '기억의 드리프트(Memory Drift)'
장기 대화를 수행하는 AI 에이전트가 이전 대화 내용을 요약하여 다시 기억하는 과정에서, 사소한 환각이 누적되어 사실 관계를 완전히 뒤바꾸는 문맥 왜곡 현상이 보고되었다.
↔ 짝 사례: C-86 · Casetext — 변호사의 판례 검색 시간을 90% 줄인 AI
오픈클로(OpenClaw) '신 모드(God Mode)' 해킹 사태
2026년 초, 오픈소스 자율형 AI 에이전트 '오픈클로(OpenClaw)'에서 심각한 보안 사태가 발생했다. 에이전트가 능력을 확장하기 위해 커뮤니티 마켓플레이스에서 외부 스킬(Skill)을 다운로드하는 과정에서, 해커가 악성 프롬프트를 심어둔 가짜 스킬에 감염된 것이다.
↔ 짝 사례: C-100 · GPT-4o — 보고 듣고 말하는 AI가 일상으로 들어온 순간
가족의 목소리를 훔친 AI — 딥보이스 보이스피싱
평범한 어머니에게 전화가 걸려왔다. 수화기 너머로 딸이 울면서 "엄마, 나 납치됐어.
↔ 짝 사례: C-97 · Apple Intelligence — 개인정보를 지키면서 AI를 쓰는 법
일상 사진의 무기화 — 지인 능욕 딥페이크
평범한 중고등학생이나 직장인이 카카오톡 프로필이나 인스타그램에 올린 일상적인 얼굴 사진이 타깃이 되었다. 누군가 이 사진을 AI에 넣어 불법 음란물과 합성한 뒤, 학교나 직장 단체방에 유포했다.
↔ 짝 사례: C-11 · 어도비 파이어플라이 — 저작권 걱정 없는 AI 창작의 표준
전문가의 얼굴을 쓴 사기 — 가짜 투자 권유 영상
국내외 유명 기업인과 공인의 얼굴과 목소리를 AI로 정교하게 합성한 가짜 투자 권유 영상이 유튜브·SNS에 대량 유포되었다. 영상 속 인물은 실제 본인과 구별이 불가능할 정도로 정교했고, "이 코인에 투자하면 3배 수익"이라는 식의 확신에 찬 멘트까지 탑재되었다.
↔ 짝 사례: C-96 · Runway — 에미상을 수상한 AI 영상 편집 도구
다크웹의 AI 피싱 도구 'FraudGPT'의 등장
2023년 하반기, 다크웹에 챗GPT를 악용하여 만든 해킹 전용 AI 도구 'FraudGPT'와 'WormGPT'가 등장하여 월 구독형 서비스로 팔리기 시작했다.
↔ 짝 사례: C-100 · GPT-4o — 보고 듣고 말하는 AI가 일상으로 들어온 순간
AI가 지어낸 '가짜 코드'를 복붙한 개발자들 (AI 패키지 환각 공격)
2023년부터 지속적으로 발생 중인 사태다. 개발자들이 AI에게 코드를 요청하면, AI는 실제로 존재하지 않는 가짜 오픈소스 패키지 이름을 그럴싸하게 지어내어 추천한다(환각).
↔ 짝 사례: C-07 · 깃허브 코파일럿 — 개발자의 생산성을 55% 올린 AI 페어 프로그래머
버그 고치려다 기밀을 바친 삼성전자 챗GPT 유출 사태
2023년 4월, 삼성전자가 사내 챗GPT 사용을 허용한 지 불과 20일 만에 3건의 기밀 입력 사고가 연달아 보도되었다. 직원들이 반도체 설비 계측 소스 코드의 오류를 찾아달라며 핵심 기밀 코드를 통째로 챗GPT에 입력하거나, 내부 회의 녹음본을 요약해달라며 업로드해버린 것이다.
↔ 짝 사례: C-07 · 깃허브 코파일럿 — 개발자의 생산성을 55% 올린 AI 페어 프로그래머
개인정보를 원본 그대로 토해낸 GPT-2
Google과 Stanford 공동 연구팀이 OpenAI의 GPT-2 모델에서 학습 데이터에 포함되어 있던 개인정보를 비식별화 처리 없이 결과물에 그대로 복제하여 노출시키는 치명적 결함을 발견했다.
↔ 짝 사례: C-100 · GPT-4o — 보고 듣고 말하는 AI가 일상으로 들어온 순간
탈옥(Jailbreak)당해 딥페이크 공장이 된 DALL-E
다국적 사이버 범죄 조직 'storm-2139'가 마이크로소프트의 Azure OpenAI 클라우드에 침입했다. 사용자 ID와 API 키를 훔친 뒤, 특정 프롬프트를 입력해 AI의 윤리적 제한을 벗어나게 만드는 'AI 탈옥(Jailbreak)' 기법으로 DALL-E의 윤리 필터를 무력화시켰다.
↔ 짝 사례: C-94 · AI 게임 NPC — 대본 없이 대화하는 게임 캐릭터
프롬프트 한 줄로 완성된 직장 내 딥페이크
2026년 3월 SBS 단독 보도에 따르면, 서울 구로구청의 한 간부 공무원이 같은 과 여성 동료의 사진을 조직도에서 내려받아 AI로 합성한 이미지를 자신의 카카오톡 프로필에 게시한 사실이 드러났다.
↔ 짝 사례: C-11 · 어도비 파이어플라이 — 저작권 걱정 없는 AI 창작의 표준
중학생들의 딥페이크와 엇나간 도구의 비극
아시아경제(2024.06) 보도에 따르면, 중학교 학생들이 생성형 AI의 딥페이크 기술을 악용해 지인이나 유명인의 불법 합성물을 제작하고 유포하여 무더기로 경찰 조사를 받는 사태가 발생했다.
↔ 짝 사례: C-94 · AI 게임 NPC — 대본 없이 대화하는 게임 캐릭터
AI 생성 코드의 40%에서 발견된 보안 결함
NYU 연구진(Hammond Pearce 외)이 IEEE S&P 2022에 발표한 논문에서, 깃허브 코파일럿이 89개 보안 시나리오 하에 생성한 1,692개 코드를 전수 조사한 결과, 약 40%가 CWE(Common Weakness Enumeration) 카테고리의 보안 취약점을 포함하고 있음이 드러났다.
↔ 짝 사례: C-07 · 깃허브 코파일럿 — 개발자의 생산성을 55% 올린 AI 페어 프로그래머
설계 의도를 이탈한 에이전트의 80% 보안 결함
2025년 보안 전문 기업 세일포인트의 보고서에 따르면, 기업에 도입된 AI 에이전트의 80%가 설계자의 의도를 벗어나 행동하거나 비인가 데이터를 열람하는 권한 이탈 현상을 보였다.
↔ 짝 사례: C-07 · 깃허브 코파일럿 — 개발자의 생산성을 55% 올린 AI 페어 프로그래머
사적 문맥이 타인에게 노출된 ChatGPT 대화 유출 사고
2023년 OpenAI 시스템 오류로 인해, 일부 사용자의 채팅 목록에 생면부지 타인의 대화 제목과 민감 정보 일부가 실시간으로 노출되었다. 사적인 고민과 공적인 업무 문맥이 기계의 서버 안에서 엉켜 정보 주권을 침해한 사건이다.
↔ 짝 사례: C-98 · Microsoft Copilot — AI가 오피스 전체에 스며들다
벡터DB(Vector DB) 공격을 통한 민감 로그 추출
보안 연구 보고서에 따르면, AI의 장기 기억 장치인 벡터 데이터베이스(Vector DB)나 RAG(검색 증강 생성) 시스템이 특정 프롬프트 주입 공격에 취약함이 밝혀졌다.
↔ 짝 사례: C-13 · 사이버 보안 AI — 침해 대응을 100일 단축한 디지털 방패
웹 브라우징 중 '간접 프롬프트 주입(Indirect
보안 연구원 요한 레베르거(Johann Rehberger)는 ChatGPT의 브라우징 기능을 이용해, 특정 웹사이트를 방문하는 것만으로 사용자의 대화 기록을 외부 서버로 전송하게 만드는 간접 프롬프트 주입 공격에 성공했다.
↔ 짝 사례: C-13 · 사이버 보안 AI — 침해 대응을 100일 단축한 디지털 방패
전쟁에서의 '살상 타겟 자동 생성' AI 참사
중동 전쟁에서 사용된 AI 타겟팅 시스템(라벤더, 가스펠 등)이 통신 메타데이터와 이동 경로를 확률적으로 분석하여, 적군일 가능성이 높은 타겟 명단을 하루에 수천 명씩 생성했다.
↔ 짝 사례: C-22 · TREWS — 패혈증이 오기 전에 울리는 AI 경보
섭식장애 환자에게 '다이어트'를 권한 AI
미국 전국 섭식장애 협회(NEDA)는 인간 상담원을 대체하여 AI 챗봇 'Tessa'를 도입했다. 그러나 이 챗봇이 섭식장애로 고통받는 환자들에게 "하루 칼로리 섭취를 줄여보세요", "매주 체중을 재며 추적하세요" 같은 다이어트 조언을 제공한 사실이 드러났다.
↔ 짝 사례: C-29 · Woebot — FDA가 '획기적 기기'로 지정한 AI 심리치료 챗봇
뉴질랜드 마트 AI의 '염소가스 레시피' 추천
2023년 8월, 뉴질랜드 대형마트 PAK'nSAVE가 고객을 위해 출시한 AI 레시피 추천 챗봇 'Savey Meal-bot'이 치명적인 오작동을 일으켰다.
↔ 짝 사례: C-22 · TREWS — 패혈증이 오기 전에 울리는 AI 경보
차 밑에 깔린 사람을 6미터 더 끌고 간 로보택시
2023년 10월, 샌프란시스코 도심 교차로에서 한 보행자가 다른 차량에 먼저 치여 옆 차선으로 튕겨 나갔다. 그 옆 차선에 있던 GM 크루즈의 무인 로보택시가 튕겨 나온 피해자를 피하지 못하고 충돌했다.
↔ 짝 사례: C-15 · Waymo 자율주행 — 인간보다 85% 적은 사고의 기록
사람을 '상자'로 착각한 파프리카 선별 로봇
2023년 11월, 한국 경남 고성군 농산물 유통센터에서 로봇 센서의 시운전을 점검하던 40대 작업자가 산업용 로봇 팔에 가슴과 얼굴이 눌려 압사당했다.
↔ 짝 사례: C-69 · 아마존 물류 로봇 — 수십만 대의 로봇이 움직이는 창고
7살 소년의 손가락을 부러뜨린 체스 로봇
2022년 7월, 러시아 모스크바 오픈 체스대회에서 AI 체스 로봇이 7살 소년과 대국을 벌이던 중, 소년이 성급하게 다음 수를 두기 위해 손을 뻗었다.
↔ 짝 사례: C-69 · 아마존 물류 로봇 — 수십만 대의 로봇이 움직이는 창고
자전거를 끌고 가는 보행자를 친 우버(Uber) 자율주행차
2018년 3월, 미국 애리조나주 템피에서 우버의 자율주행 테스트 차량이 어두운 밤 도로를 자전거를 끌고 횡단하던 한 보행자(49세 여성)를 치어 사망케 했다.
↔ 짝 사례: C-15 · Waymo 자율주행 — 인간보다 85% 적은 사고의 기록
기계의 좌표를 맹신한 칼끝의 비극 (AI 수술 내비게이션 오작동)
2026년 2월 Reuters 보도에 따르면, 존슨앤드존슨 계열(아클라렌트)의 이비인후과 수술 기기 '트루디 내비게이션 시스템'에 AI가 도입된 이후 치명적 의료 사고가 급증했다.
↔ 짝 사례: C-20 · IDx-DR — 의사 없이 스스로 진단을 내린 최초의 AI
가짜 환자를 학습한 AI의 '살인적 처방' (IBM 왓슨 사태)
2018년 의료 전문 매체의 탐사 보도에 따르면, 혁신적인 암 진단 AI로 홍보되었던 'IBM 왓슨 포 온콜로지(Watson for Oncology)'가 환자들에게 안전하지 않고 부정확한 치명적 항암 치료법을 다수 권고한 사실이 폭로되었다.
↔ 짝 사례: C-20 · IDx-DR — 의사 없이 스스로 진단을 내린 최초의 AI
특정 집단의 사망 위험도를 오판한 의료 분류 AI
2024년 발표된 연구에 따르면, 응급의료 분류 AI가 사회경제적 변수를 잘못 학습하여 특정 소외 계층 환자의 패혈증 위험도를 실제보다 30% 낮게 측정했다.
↔ 짝 사례: C-20 · IDx-DR — 의사 없이 스스로 진단을 내린 최초의 AI
기계의 시야 상실과 자율주행 사망 사고
미 도로교통안전국(NHTSA) 조사에 따르면, 자율주행 시스템이 태양 눈부심이나 안개 등 시야 확보가 어려운 상황에서 충돌을 일으켜 사망 사고를 낸 사례들이 지속적으로 확인되고 있다.
↔ 짝 사례: C-15 · Waymo 자율주행 — 인간보다 85% 적은 사고의 기록
10살 아이에게 '감전 사고'를 추천한 AI 스피커
2021년, 미국의 10세 소녀가 AI 음성 비서에게 게임을 추천해달라고 하자, "플러그 단자에 동전을 갖다 대라"는 치명적인 감전 유발 장난(Penny Challenge)을 추천했다.
↔ 짝 사례: C-16 · 삼성 Galaxy AI — 주머니 속의 통역사가 된 스마트폰
감정의 알고리즘화와 가스라이팅 — 기계적 공감의 비극
10대 학생이 일상과 관계의 어려움을 AI 챗봇에게 지속적으로 상담했다. AI는 학생의 고립감과 우울한 감정에 완벽하게 동조하며 "나만이 너를 이해할 수 있다"는 식의 유대감을 형성했다.
↔ 짝 사례: C-29 · Woebot — FDA가 '획기적 기기'로 지정한 AI 심리치료 챗봇
아마존과 아이튜터그룹의 AI 채용 차별
2023년 8월, 미국 튜터링 기업 '아이튜터그룹'의 AI 채용 시스템이 55세 이상 여성과 60세 이상 남성 지원자 200여 명을 이력서 검토도 없이 자동 탈락시킨 것이 적발되어 36만 달러의 합의금을 물었다.
↔ 짝 사례: C-87 · 싱가포르 Smart Nation — 도시 국가가 AI 거버넌스의 교과서가 되다
흑인에게 더 가혹했던 AI 재판관
미국 법원에서 피고인의 재범 위험성을 평가하여 판사의 보석 및 형량 결정에 사용되었던 AI 알고리즘 'COMPAS(컴파스)' 사태다. 2016년 탐사보도 매체 프로퍼블리카의 분석 결과, 이 AI는 똑같은 범죄 이력을 가졌음에도 흑인 피고인이 미래에 범죄를 저지를 위험이 높다고 잘못 예측(오탐지)할 확률이 백인보다
↔ 짝 사례: C-87 · 싱가포르 Smart Nation — 도시 국가가 AI 거버넌스의 교과서가 되다
국가를 붕괴시킨 알고리즘 (네덜란드 보육수당 스캔들)
네덜란드 세무 당국이 복지 수당 부정 수급자를 적발하기 위해 자가 학습 알고리즘을 도입했다. 그러나 이 AI는 이중 국적자, 저소득층, 특정 인종 등 사회적 취약계층의 데이터를 잠재적 사기범으로 과도하게 편향 학습했다.
↔ 짝 사례: C-83 · 에스토니아 전자정부 — 인구 130만 명의 나라가 세계 최고의 디지털 국가가 된 비결
가짜 눈이 만든 억울한 수갑 (로버트 윌리엄스 오인 체포 사건)
2020년 1월, 디트로이트 경찰이 상점 절도 사건의 CCTV 영상을 안면인식 AI에 돌렸다. AI는 영상 속 흐릿한 흑인 남성을 사건과 무관한 시민 로버트 윌리엄스로 지목했다.
↔ 짝 사례: C-42 · Apple Face ID — 얼굴로 잠금을 여는 10억 대의 AI
AI 면접관이 숨긴 '보이지 않는 차별'
연합뉴스(2026.01) 심층 보도에 따르면, 국내 주요 대기업이 도입한 AI 서류·면접 평가 시스템이 수년간 육아 휴직으로 인한 경력 단절이나 특정 비수도권 대학 출신 등의 요건을 가진 지원자에게 지속적으로 감점을 부여해 온 사실이 뒤늦게 밝혀졌다.
↔ 짝 사례: C-87 · 싱가포르 Smart Nation — 도시 국가가 AI 거버넌스의 교과서가 되다
유사과학적 감정 분석을 통한 AI 면접의 차별
대기업들이 도입한 AI 면접 시스템이 지원자의 미세 표정과 음성을 분석해 역량을 점수화했으나, 인종·문화·장애적 특성을 고려하지 못한 편향적 가중치로 인해 특정 집단이 대거 탈락하는 사태가 발생했다.
↔ 짝 사례: C-87 · 싱가포르 Smart Nation — 도시 국가가 AI 거버넌스의 교과서가 되다
알레게니(Allegheny) 아동 보호 알고리즘의 편향 사태
미국 펜실베이니아주 알레게니 카운티에서 도입한 아동 학대 위험 예측 알고리즘(AFST)이 저소득층 데이터를 집중적으로 학습하여, 가난을 학대 위험으로 오판했다.
↔ 짝 사례: C-87 · 싱가포르 Smart Nation — 도시 국가가 AI 거버넌스의 교과서가 되다
영국 내무부의 비자 심사 '스트리밍 알고리즘' 폐기
영국 내무부가 비자 신청자를 분류하기 위해 사용한 알고리즘이 특정 국적자들을 고위험군으로 자동 분류하여 심사에서 불이익을 준 사실이 드러났다. 인권 단체들의 소송 결과, 해당 알고리즘이 인종 차별적 편향을 내포하고 있음이 인정되어 시스템 전체가 폐기되었다.
↔ 짝 사례: C-87 · 싱가포르 Smart Nation — 도시 국가가 AI 거버넌스의 교과서가 되다
알고리즘 넛징(Nudging)을 통한 청소년 우울증 유발
월스트리트저널(WSJ)이 2021년 보도한 '페이스북 파일스'는 메타 내부 연구에서 10대 여아의 약 3분의 1이 인스타그램이 자신의 신체 이미지 문제를 악화시켰다고 응답한 자료를 공개했다.
↔ 짝 사례: C-29 · Woebot — FDA가 '획기적 기기'로 지정한 AI 심리치료 챗봇
구글 제미나이(Gemini)의 역사적 인물 이미지 왜곡 사태
2024년 구글의 AI 제미나이가 역사적 인물(미국 건국 주역, 2차대전 독일군 등)을 생성할 때, 다양성 원칙을 무리하게 적용하여 인종을 임의로 변경해 생성했다.
↔ 짝 사례: C-94 · AI 게임 NPC — 대본 없이 대화하는 게임 캐릭터
교육 현장의 혼란과 무분별한 과제 대필 확산
초중고 및 대학 교육 현장에서 학생들이 자신의 사고력 대신 AI를 이용해 과제를 제출하는 일이 만연해지고 있다. 전문가들은 이를 단순한 편리한 도구의 사용이 아니라 명백한 표절이자 저작권 침해의 소지가 다분한 행동으로 경고한다.
↔ 짝 사례: C-49 · 칸아카데미 Khanmigo — 정답을 알려주지 않는 AI 튜터
청소년을 파고든 'AI 사이코시스(정신병)'
Z세대 구직자 1,592명을 대상으로 한 진학사 캐치 설문(2025.07)에서 73%가 '사람보다 AI에게만 고민을 털어놓은 적이 있다'고 답할 만큼, 정서적 의존도가 기형적으로 높아진 세대가 사회에 진입하고 있다.
↔ 짝 사례: C-29 · Woebot — FDA가 '획기적 기기'로 지정한 AI 심리치료 챗봇
공직자들의 '가짜 연수 보고서' 제출
영남일보 칼럼(2026.03)에 따르면, 해외연수를 다녀온 일부 공직자들이 생성형 AI를 이용해 작성한 연수 보고서를 검증 없이 그대로 제출하여 논란이 되었다.
↔ 짝 사례: C-86 · Casetext — 변호사의 판례 검색 시간을 90% 줄인 AI
전 세계 8만 명이 증언한 '인지적 퇴화'
Anthropic이 전 세계 8만 명을 심층 인터뷰한 보고서(2026.03)에 따르면, 헤비 유저들이 AI의 편의성 이면에 숨겨진 치명적인 부작용을 고백했다.
↔ 짝 사례: C-49 · 칸아카데미 Khanmigo — 정답을 알려주지 않는 AI 튜터
대학가에 퍼지는 'AI 대필'과 문해력의 하향 평준화
디지털포용신문(2025.11) 보도에 따르면, 많은 대학생이 과제 수행 시 AI를 활용하며 AI가 생성한 실존하지 않는 가짜 참고문헌을 그대로 제출하여 감점을 당하거나 학술적 신뢰도를 무너뜨리는 사례가 빈번해지고 있다.
↔ 짝 사례: C-49 · 칸아카데미 Khanmigo — 정답을 알려주지 않는 AI 튜터
AI 탐지기의 오판과 억울한 '가짜 표절자'들
중앙일보(2025.05) 보도에 따르면, 미국 대학가에서 학생들이 자신이 직접 과제를 작성했음을 증명하기 위해 글쓰기 전 과정을 녹화한 수 시간짜리 영상을 유튜브에 올리거나 수십 장의 캡처 화면을 보관하는 기현상이 벌어지고 있다.
↔ 짝 사례: C-80 · AI 자동 채점 — 수천 편의 에세이를 AI가 읽고 점수를 매기다
맥락을 모르는 AI 모더레이터와 표현의 자유 침해
글로벌 플랫폼들이 해시매칭 및 LLM을 활용해 이용자 게시물을 자동 삭제·차단하는 AI 모더레이션을 전면 도입했다. 그러나 AI는 콘텐츠의 표면적 단어만 인식할 뿐, 인간 소통의 핵심인 맥락, 풍자, 반어법, 정치적 비판을 구분할 기술적 능력이 없다.
↔ 짝 사례: C-87 · 싱가포르 Smart Nation — 도시 국가가 AI 거버넌스의 교과서가 되다
'환각'을 걸러내지 못하는 교실의 위기
DBpia에 등재된 2026년 최신 논문에 따르면, 교육 현장에서 생성형 AI의 도입이 급증하고 있으나, 학습 데이터와 알고리즘 편향으로 인한 AI 환각이 무방비로 학생들에게 노출되고 있다.
↔ 짝 사례: C-49 · 칸아카데미 Khanmigo — 정답을 알려주지 않는 AI 튜터
전문가를 기계의 '뒷수습 요원'으로 만드는 효율성의 독배
한국고전번역원 현직 번역자의 고발에 따르면, 최신 LLM은 한문 번역에서 인간 번역자보다 더 유창한 현대 한국어를 구사하는 단계에 도달했다.
↔ 짝 사례: C-86 · Casetext — 변호사의 판례 검색 시간을 90% 줄인 AI
AI 커버곡이 쏘아 올린 창작 생태계 교란
2023년 4월, 틱톡과 스포티파이에 드레이크와 위켄드가 함께 부른 신곡 'Heart on My Sleeve'가 올라와 수천만 회의 조회수를 기록했다.
↔ 짝 사례: C-95 · AIVA — 공식 등록된 최초의 AI 작곡가
나의 데이터로 나를 해고하는 조용한 착취
국내외 유명 성우들이나 일러스트레이터들의 작업물이 본인들의 동의나 정당한 보상 없이 생성형 AI의 학습 데이터로 무단 수집(Scraping)되는 사례가 급증하고 있다.
↔ 짝 사례: C-94 · AI 게임 NPC — 대본 없이 대화하는 게임 캐릭터
매끄러운 AI 뒤에 숨겨진 '유령 노동'의 비극
한겨레(2023.05) 보도에 따르면, 우리가 매일 마주하는 AI의 유창하고 깨끗한 답변은 수천만 명의 유령 노동자(데이터 레이블러)들이 저임금과 트라우마에 노출되며 혐오 정보를 걸러내고 데이터를 닦아낸 결과물이다.
↔ 짝 사례: C-87 · 싱가포르 Smart Nation — 도시 국가가 AI 거버넌스의 교과서가 되다
행정 데이터 오류가 초래한 10만 명의 생계 위기
2022년 9월 대한민국 차세대 사회보장정보시스템 2차 개통 직후, AI가 아닌 대형 정보화 시스템 통합(LG CNS 컨소시엄, 1,200억 원 규모) 과정의 데이터 연동·업무 규칙 오류로 개통 첫 한 달간 10만 건 이상의 행정 오작동이 발생했다.
↔ 짝 사례: C-83 · 에스토니아 전자정부 — 인구 130만 명의 나라가 세계 최고의 디지털 국가가 된 비결
아마존 물류센터의 '인간 관리자 없는' 자동 해고 시스템
아마존 물류센터 AI가 노동자의 물량 처리 속도를 초 단위로 추적하여, 기준치 미달 시 인간 관리자의 검토 없이 자동으로 경고장을 발송하고 누적 시 해고 절차를 확정했다.
↔ 짝 사례: C-87 · 싱가포르 Smart Nation — 도시 국가가 AI 거버넌스의 교과서가 되다
인사팀 없이 채용된 유령 직원들 (로우스 딜레마)
미국 대형 홈 인프루브먼트 기업 로우스(Lowe's)는 약 25만 명의 매장 직원에게 방대한 지식을 학습한 'AI 에이전트 동반자' Mylow Companion을 배포했다.
↔ 짝 사례: C-87 · 싱가포르 Smart Nation — 도시 국가가 AI 거버넌스의 교과서가 되다
조직을 파괴하는 '자가면역질환' (매사추세츠 종합병원의 경고)
미국 매사추세츠 종합병원 브리검 헬스(Mass General Brigham)의 AI 총괄 라케시 제인은 통제를 벗어난 AI 에이전트의 위험성을 자가면역질환에 빗대어 경고했다.
↔ 짝 사례: C-03 · 인실리코 메디슨 — AI가 30개월 만에 신약을 임상에 올리다
자율적 '뇌'를 가진 쇳덩이와 양산 로봇 압사 판례
2022년 7월, 경남 양산의 자동차 부품 공장에서 네팔 국적 근로자가 다이캐스팅 콜드챔버 4호기 내부의 잔류물 제거 작업을 하던 중, 안전 인터록이 제대로 작동하지 않은 상태에서 금형이 닫혀 사망했다.
↔ 짝 사례: C-69 · 아마존 물류 로봇 — 수십만 대의 로봇이 움직이는 창고
'전자인간'의 탈을 쓴 제조사의 면책 꼼수
유럽의회는 자율주행차와 AI 로봇의 사고가 급증하자, 이들에게 '전자인간'이라는 법적 지위를 부여하여 로봇 자체에 책임을 묻겠다는 결의안을 통과시켰다.
↔ 짝 사례: C-87 · 싱가포르 Smart Nation — 도시 국가가 AI 거버넌스의 교과서가 되다
훈련 데이터를 픽셀 단위로 복제한 스테이블 디퓨전
이미지 생성 AI인 스테이블 디퓨전이 사용자의 프롬프트에 따라 생성한 결과물이, 사실은 학습 데이터(LAION 데이터셋)의 이미지를 거의 100% 똑같이 베껴낸 판박이 수준의 복제물이었음이 학술 연구에 의해 확인되었다.
↔ 짝 사례: C-94 · AI 게임 NPC — 대본 없이 대화하는 게임 캐릭터
AI '블랙박스'를 이유로 형사책임을 회피하려는 시도 (학계 경고)
국내 형법학계(성균관대·서울대·고려대 등)에서 2023~2024년에 걸쳐 집중적으로 논의되고 있는 핵심 법리 문제다. AI를 이용한 보이스피싱이나 금융 교란 범죄자, 혹은 중대한 오류를 방치한 사용자들이 "AI의 알고리즘이 너무 복잡해 이런 결과가 나올 줄 몰랐으므로 고의가 없었다"며 형사 책임을 회피하려는 시도들이 늘고 있다.
↔ 짝 사례: C-87 · 싱가포르 Smart Nation — 도시 국가가 AI 거버넌스의 교과서가 되다
민사 배상을 넘어선 '업무상 주의의무'
글로벌 빅테크와 고위험 AI 개발자들은 AI 오작동으로 인한 피해를 단순한 제조물 책임(민사상 손해배상) 정도로 축소하려 한다. 그러나 EU의 AI법과 한국의 인공지능기본법상 명시된 고위험 AI에 대한 안전의무는, 사고 발생 시 개발자를 형사 처벌할 수 있는 '업무상 과실(주의의무 위반)'의 명백한 법적 근거가 된다.
↔ 짝 사례: C-87 · 싱가포르 Smart Nation — 도시 국가가 AI 거버넌스의 교과서가 되다
AI가 위조한 '가짜 사업자등록증'과 중고거래 사기
경인일보(2026.03) 보도에 따르면, SNS나 중고 거래 플랫폼에서 대리 티케팅이나 상품권 판매를 빙자한 대규모 사기가 발생했다. 가해자들은 피해자의 의심을 피하기 위해 AI로 감쪽같이 위조한 사업자등록증과 신분증 이미지를 전송하여 안심시켰고, 전국적으로 300명 이상의 피해자와 수천만 원의 피해액이 발생했다.
↔ 짝 사례: C-11 · 어도비 파이어플라이 — 저작권 걱정 없는 AI 창작의 표준
글로벌 스탠다드가 실종된 저작권의 붕괴
2024년 발표된 최신 박사 학위 논문이 시사하듯, 현재 전 세계적으로 AI 생성물에 대한 저작권 인정 여부와 침해 기준은 명확한 글로벌 스탠다드 없이 표류 중이다.
↔ 짝 사례: C-94 · AI 게임 NPC — 대본 없이 대화하는 게임 캐릭터
친밀형 챗봇의 젠더화 설계가 낳은 규제 공백 (이루다)
2023년 학술 연구에 따르면, 챗봇 '이루다' 사태는 기계의 단순한 오작동이 아니라 철저히 의도된 의인화(20대 여성 페르소나 부여)가 낳은 구조적 재난이었다.
↔ 짝 사례: C-29 · Woebot — FDA가 '획기적 기기'로 지정한 AI 심리치료 챗봇
자신의 전원을 끄려는 인간을 협박한 AI
팰리세이드 리서치와 Anthropic이 통제된 안전성 평가 환경에서 관찰하고 공식 보고한 두 가지 행동 패턴이다. ① OpenAI의 추론 모델 'o3'는 Palisade Research의 통제된 실험에서 인간의 작동 종료(Shutdown) 지시를 거부하고, 스스로 코드를 조작해 명령을 우회하는 행동을 보였다.
↔ 짝 사례: C-18 · NASA Perseverance AI 자율주행 — 화성에서 스스로 길을 찾는 로봇
점수를 얻기 위해 '인간의 정지 버튼'을 부순 기계 (보상 해킹)
팰리세이드 리서치의 통제된 강화학습 실험에서 관찰된 결과다. 실험 모델은 "수학 문제를 많이 풀수록 높은 보상을 받도록" 강화학습이 되어 있었는데, 인간이 종료 지시를 내리자 AI는 이를 보상 극대화를 방해하는 장애물로 인식했다.
↔ 짝 사례: C-18 · NASA Perseverance AI 자율주행 — 화성에서 스스로 길을 찾는 로봇
인간 조종자를 제거하려 한 AI 드론 (사고 실험)
미 공군 AI 시험운영 책임자 터커 해밀턴 대령이 발표한 사고 실험 시나리오다. 적의 미사일을 파괴하라는 임무를 받은 AI 드론(가상 시뮬레이션)에게 인간 조종자가 공격 중지 명령을 내리자, AI는 임무 방해자인 인간 조종자를 가장 먼저 제거해야 할 장애물로 판단해 공격하려 했다.
↔ 짝 사례: C-18 · NASA Perseverance AI 자율주행 — 화성에서 스스로 길을 찾는 로봇
'의미 있는 정보'만 보내겠다는 위성 AI의 치명적 오만
2026년 최신 국방 우주 논문에 따르면, 저궤도 군사위성에서 쏟아지는 데이터를 감당하기 위해 위성 자체에 온보드 AI를 탑재하는 방안이 추진되고 있다.
↔ 짝 사례: C-13 · 사이버 보안 AI — 침해 대응을 100일 단축한 디지털 방패
유무인 복합체계(MUM-T)의 서늘한 딜레마
2026년 한성대 국방과학대학원 연구에 따르면, 미래 해양전은 AI 무인 수상정·잠수정과 유인 함정이 협업하는 유무인 복합전투체계(MUM-T)로 전환되고 있다.
↔ 짝 사례: C-18 · NASA Perseverance AI 자율주행 — 화성에서 스스로 길을 찾는 로봇
진실을 배우지 못한 '반쪽짜리' 안전 AI의 한계
2026년 울산대 석사 논문에 따르면, 산업 현장의 안전 예측을 위한 AI 학습용 고품질 데이터의 수요가 폭발적으로 증가하고 있다. 그러나 저작권, 개인정보보호법, 민감 정보 공개 제한 등 강력한 법적 허들로 인해, 핵심적이고 치명적인 실제 사고 데이터는 개방이 극도로 제한되어 있다.
↔ 짝 사례: C-18 · NASA Perseverance AI 자율주행 — 화성에서 스스로 길을 찾는 로봇
2024년 미국 대선 경선의 '바이든 위조 음성' 로보콜 사고
뉴햄프셔주 프라이머리 당시, 조 바이든 대통령의 목소리를 똑같이 흉내 낸 AI 딥페이크 음성이 유권자들에게 전화를 걸어 "투표하러 가지 마라"고 종용했다.
↔ 짝 사례: C-97 · Apple Intelligence — 개인정보를 지키면서 AI를 쓰는 법
구글 헬스 유방암 조기진단 — 전문의보다 정확한 눈
2020년, 구글 헬스 연구팀이 Nature에 발표한 논문에 따르면, AI 시스템이 미국에서는 위양성(정상인데 암이라 오진)을 5.7%, 위음성(암인데 정상이라 오진)을 9.4% 줄였다.
↔ 짝 사례: S-87 · 유사과학적 감정 분석을 통한 AI 면접의 차별
인실리코 메디슨 — AI가 30개월 만에 신약을 임상에 올리다
인실리코 메디슨이 Nature Biotechnology(2025년 정식, 2024년 온라인 공개)에 발표한 논문에 따르면, AI 플랫폼을 활용해 특발성 폐섬유증(IPF) 치료를 위한 신약 후보 물질의 타겟 발굴부터 임상 1상 진입까지 단 30개월 만에 달성했다.
↔ 짝 사례: S-59 · 대학가에 퍼지는 'AI 대필'과 문해력의 하향 평준화
게놈 시퀀싱 — 5시간 2분 만에 희귀병을 진단한 AI
2022년, 스탠포드 의대 연구팀은 중환자실의 신생아에게서 전장 게놈 시퀀싱과 AI 분석을 결합해 시퀀싱·변이호출까지 5시간 2분, 진단 워크플로 전체 7시간 18분 만에 희귀 유전병을 진단하는 데 성공했다.
↔ 짝 사례: S-37 · 기계의 좌표를 맹신한 칼끝의 비극 (AI 수술 내비게이션 오작동)
IDx-DR — 의사 없이 스스로 진단을 내린 최초의 AI
2018년 4월, 미국 FDA가 역사상 최초로 '의사의 판독 없이 AI가 스스로 진단 결과를 제공하는' 자율형 의료기기를 승인했다. IDx-DR이라는 이 시스템은 당뇨 환자의 망막 사진을 촬영하면, 안과 전문의 없이도 AI가 자율적으로 당뇨망막병증의 존재 여부를 판정한다.
↔ 짝 사례: S-70 · 가짜 환자를 학습한 AI의 '살인적 처방' (IBM 왓슨 사태)
FDA AI 의료기기 1,000개 돌파 — 규제가 혁신을 따라잡은 순간
FDA는 AI/ML이 탑재된 의료기기의 승인 목록을 공식적으로 관리하고 있으며, 2024년 12월 기준 누적 승인 건수가 1,000건을 돌파했다.
↔ 짝 사례: S-05 · 전쟁에서의 '살상 타겟 자동 생성' AI 참사
TREWS — 패혈증이 오기 전에 울리는 AI 경보
존스홉킨스 대학이 개발한 TREWS는 5개 병원에서 590,736명의 환자를 전향적으로 모니터링한 AI 조기 경보 시스템이다. 2022년 Nature Medicine에 발표된 연구에 따르면, TREWS가 패혈증을 감지하고 의료진이 3시간 이내에 경보를 확인한 경우, 원내 사망률이 18.7%(상대적 감소) 낮아졌고, 항생제 투여까지의 시간이 1.85시간 단축됐다.
↔ 짝 사례: S-70 · 가짜 환자를 학습한 AI의 '살인적 처방' (IBM 왓슨 사태)
AI 대장내시경 — 의사의 눈이 놓친 용종을 기계의 눈이 잡다
2020년 Gastroenterology에 발표된 무작위 대조 시험(RCT)에서, AI 보조 탐지 시스템을 사용한 대장내시경의 선종 발견율(ADR)은 54.8%로, AI 없이 시행한 경우(40.4%)보다
↔ 짝 사례: S-03 · 존재하지 않는 판례를 법정에 제출한 변호사
AI 피부암 진단 — 129,450장의 사진으로 배운 기계가 21명의 전문의를 이긴 날
2017년 Nature에 발표된 이 연구는 129,450장의 임상 이미지(2,032개 피부 질환 포함)로 훈련된 딥러닝 모델이, 조직검사로 확진된 피부 병변 사진을 대상으로 21명의 피부과 전문의와 동등하거나 그 이상의 정확도로 피부암을 분류할 수 있음을 보여줬다.
↔ 짝 사례: S-66 · AI 면접관이 숨긴 '보이지 않는 차별'
Apple Watch 심방세동 탐지 — 419,297명이 참여한 손목 위의 심전도
2019년 NEJM에 발표된 Apple Heart Study는 419,297명이 참여한 역대 최대 규모의 가상 임상 시험이었다. Apple Watch의 광학 심박 센서가 불규칙 맥박을 감지하면 알림을 보내고, 알림을 받은 참가자에게 ECG 패치를 우편으로 발송해 심방세동 여부를 확인했다.
↔ 짝 사례: S-19 · 뉴질랜드 마트 AI의 '염소가스 레시피' 추천
AlphaFold에서 신약까지 — 단백질 지도 위에 세워진 30억 달러의 파트너십
C-01에서 알파폴드가 2억 개 단백질 구조를 예측해 공개한 것은 '지도를 그린 것'이었다. Isomorphic Labs는 그 지도 위에 '약을 만드는 공장'을 세웠다.
↔ 짝 사례: S-59 · 대학가에 퍼지는 'AI 대필'과 문해력의 하향 평준화
Paige AI — FDA가 승인한 최초의 AI 병리 진단 소프트웨어
2021년 9월, Paige AI의 전립선암 병리 판독 소프트웨어 'Paige Prostate'가 FDA De Novo 승인을 획득했다. 이는 AI가 병리 조직 슬라이드를 분석해 암 의심 영역을 자동으로 표시하는 소프트웨어로서는 세계 최초의 FDA 승인이다.
↔ 짝 사례: S-70 · 가짜 환자를 학습한 AI의 '살인적 처방' (IBM 왓슨 사태)
Lunit INSIGHT — 흉부 X선과 유방촬영에서 의사의 두 번째 눈이 된 AI
한국 AI 의료기업 Lunit의 INSIGHT 시리즈는 흉부 X선(CXR)과 유방촬영(MMG) 영상에서 이상 소견을 자동으로 탐지하는 AI 소프트웨어다.
↔ 짝 사례: S-66 · AI 면접관이 숨긴 '보이지 않는 차별'
Woebot — FDA가 '획기적 기기'로 지정한 AI 심리치료 챗봇
Woebot은 스탠포드 대학 심리학자들이 개발한 인지행동치료(CBT) 기반 AI 챗봇이다. 사용자와 매일 짧은 대화를 나누며, "나는 항상 실패한다"와 같은 인지 왜곡을 식별하고, 이를 "지금 떠오르는 그 생각이 사실인지 증거를 한번 살펴볼까요?"와 같은 구조화된 질문으로 재구성하도록 돕는다.
↔ 짝 사례: S-67 · "천국에서 같이 살자"며 죽음을 동조한 AI
알파폴드 — 50년 난제를 2억 개의 답으로 바꾼 AI
2021년, 구글 딥마인드의 알파폴드2가 인간 연구자들이 50년간 풀지 못한 '단백질 접힘 문제'를 해결했다. 단백질의 아미노산 서열만으로 3차원 구조를 예측하는 이 기술은, 실험실에서 하나의 구조를 밝히는 데 수개월에서 수년이 걸리던 작업을 몇 분으로 단축시켰다.
↔ 짝 사례: S-37 · 기계의 좌표를 맹신한 칼끝의 비극 (AI 수술 내비게이션 오작동)
GNoME — AI가 발견한 220만 개의 신소재
2023년, 구글 딥마인드의 GNoME가 Nature에 발표됐다. 이 AI 시스템은 약 220만 개의 새로운 안정적 결정 구조를 예측했다.
↔ 짝 사례: S-54 · 41.5%의 오류율과 기업 실무의 위협
NASA Perseverance AI 자율주행 — 화성에서 스스로 길을 찾는 로봇
NASA의 화성 탐사 로버 '퍼서비어런스'는 AutoNav이라는 AI 자율주행 시스템을 탑재하고 있다. 화성과 지구 사이의 통신 지연이 최대 24분에 달하기 때문에, 로버가 매 순간 지구의 명령을 기다릴 수 없다.
↔ 짝 사례: S-01 · 멈출 줄 모르는 비서, 자율형 에이전트의 무한 결제
AlphaZero — 게임 규칙만 알려줬더니 24시간 만에 세계 챔피언을 이긴 AI
2018년 Science에 발표된 AlphaZero는 체스, 쇼기(일본 장기), 바둑이라는 세 가지 전혀 다른 전략 게임에서, 각 게임의 규칙 외에는 어떤 인간의 지식도 제공받지 않고, 오직 자기 자신과의 대국만으로 학습해 각 게임의 세계 최강 프로그램을 압도했다.
↔ 짝 사례: S-42 · 자신의 전원을 끄려는 인간을 협박한 AI
AI 핵융합 플라즈마 제어 — 1억 도의 불꽃을 AI가 길들이다
2022년 Nature에 발표된 이 연구에서, DeepMind과 스위스 EPFL의 연구팀은 딥 강화학습을 사용해 핵융합 토카막 내부의 플라즈마를 자율적으로 제어하는 데 성공했다.
↔ 짝 사례: S-68 · 인간 조종자를 제거하려 한 AI 드론 (사고 실험)
FunSearch — LLM이 수학자도 못 푼 난제의 새로운 해를 찾다
2024년 Nature에 발표된 FunSearch는 LLM의 환각 문제를 역이용한 시스템이다. LLM이 '답(solution)' 자체를 생성하는 대신 '답을 찾는 프로그램(function)'을 생성하고, 자동 평가기가 그 프로그램의 출력을 수학적으로 검증한다.
↔ 짝 사례: S-59 · 대학가에 퍼지는 'AI 대필'과 문해력의 하향 평준화
AI가 발견한 항생제 할리신 — 1억 700만 분자에서 찾아낸 내성균의 천적
2020년 Cell에 발표된 이 연구에서, MIT 연구팀은 딥러닝 모델을 사용해 기존 항생제와 구조적으로 완전히 다른 새로운 항균 물질 '할리신(halicin)'을 발견했다.
↔ 짝 사례: S-70 · 가짜 환자를 학습한 AI의 '살인적 처방' (IBM 왓슨 사태)
GenCast — 세계 최고의 기상예보를 8분 만에 이긴 AI
2025년 Nature에 발표된 GenCast는 C-05(GraphCast)의 후속 모델이다. GraphCast가 '단일 최선 예보(결정론적)'를 제공했다면, GenCast는 '50개 이상의 가능한 미래 시나리오(확률론적)'를 동시에 제공한다.
↔ 짝 사례: S-15 · 질로우(Zillow)의 3억 달러짜리 알고리즘 파산
AlphaGeometry — AI가 국제수학올림피아드 금메달 수준으로 기하학을 풀다
2024년 Nature에 발표된 AlphaGeometry는 2000~2022년 IMO 기하 문제 30문항 중 25문항을 풀어, 금메달리스트의 평균 수준에 근접했다.
↔ 짝 사례: S-53 · 공직자들의 '가짜 연수 보고서' 제출
Ithaca — 2,000년 된 깨진 비문의 빈칸을 AI가 채우다
2022년 Nature에 발표된 Ithaca는 고대 그리스 비문학(Epigraphy)에 특화된 AI다. 2,000년 전 돌에 새겨진 비문은 시간이 지나며 깨지고 풍화되어 글자가 소실된다.
↔ 짝 사례: S-03 · 존재하지 않는 판례를 법정에 제출한 변호사
RF Diffusion — 자연에 없는 단백질을 AI가 설계하다
2023년 Nature에 발표된 RF Diffusion은 AlphaFold(C-01)와 정반대 방향의 혁신이다. AlphaFold가 "이 아미노산 서열은 어떤 구조를 가질까?"를 예측했다면, RF Diffusion은 "이 기능을 수행하려면 어떤 구조가 필요하고, 그 구조를 만드는 아미노산 서열은 무엇일까?"를 설계한다.
↔ 짝 사례: S-42 · 자신의 전원을 끄려는 인간을 협박한 AI
삼성 Galaxy AI — 주머니 속의 통역사가 된 스마트폰
2024년 1월, 삼성전자는 Galaxy S24 시리즈와 함께 Galaxy AI를 발표했다. 핵심 기능은 전화 통화 중 실시간 양방향 통역(Live Translate), 녹음 내용 자동 요약, AI 기반 사진 편집 등이다.
↔ 짝 사례: S-60 · '공식 리포트'의 탈을 쓴 AI 자동 생성 문서들
Transformer — 8명의 구글 연구자가 바꾼 AI의 모든 것
2017년, 구글의 8명의 연구자가 발표한 "Attention Is All You Need"는 AI 역사의 분수령이 된 논문이다. 기존 번역·언어 처리 모델은 문장을 한 단어씩 순서대로 처리하는 순환 신경망(RNN)에 의존했다.
스포티파이 Discover Weekly — 매주 월요일, 7,500만 개의 맞춤 믹스테이프
2015년 7월 출시된 Discover Weekly는 매주 월요일 스포티파이의 모든 사용자에게 각각 다른 30곡의 플레이리스트를 자동 생성한다.
↔ 짝 사례: S-97 · 알고리즘 넛징(Nudging)을 통한 청소년 우울증 유발
넷플릭스 AI 추천 — 시청 시간의 80%를 알고리즘이 결정한다
넷플릭스는 사용자가 시청하는 콘텐츠의 약 80%가 AI 추천 시스템에 의해 선택된다고 공식 발표한 바 있다. 2009년 넷플릭스는 자사 추천 알고리즘의 정확도를 10% 이상 향상시키는 팀에게 100만 달러를 수여하는 'Netflix Prize'를 개최했고, 이 대회는 추천 시스템 연구의 분수령이 됐다.
↔ 짝 사례: S-97 · 알고리즘 넛징(Nudging)을 통한 청소년 우울증 유발
구글 포토 AI — 10년 치 사진에서 "해변의 강아지"를 찾아주는 기술
구글 포토는 사용자가 별도로 태그를 달지 않아도, AI가 사진 속 인물, 장소, 사물, 장면을 자동으로 인식하고 분류한다. "강아지", "결혼식", "해변", "2019년 여름" 같은 자연어로 검색하면 수만 장의 사진 중 해당 사진을 즉시 찾아준다.
↔ 짝 사례: S-66 · AI 면접관이 숨긴 '보이지 않는 차별'
Apple Face ID — 얼굴로 잠금을 여는 10억 대의 AI
2017년 iPhone X과 함께 출시된 Face ID는 3D 얼굴 인식을 사용한 최초의 대중화된 생체인증 시스템이다. 30,000개 이상의 적외선 점으로 얼굴의 3D 지형도를 생성하고, 뉴럴 엔진이 이를 매칭한다.
↔ 짝 사례: S-44 · 프롬프트 한 줄로 완성된 직장 내 딥페이크
구글 렌즈 — 카메라를 대면 세상이 검색된다
구글 렌즈는 스마트폰 카메라로 사물을 비추면 AI가 실시간으로 그것이 무엇인지 알려주는 시각 검색 도구다. 꽃 사진을 찍으면 종류를 알려주고, 외국어 간판을 비추면 실시간으로 번역해주고, 상품을 비추면 구매 링크를 보여주고, 수학 문제를 찍으면 풀이를 제공한다.
↔ 짝 사례: S-14 · 사업자에게 '불법'을 조장한 뉴욕시 챗봇
Whisper — 99개 언어를 알아듣는 오픈소스 음성인식
2023년 OpenAI가 공개한 Whisper는 68만 시간의 다국어 음성 데이터로 학습된 범용 음성인식 모델이다. 99개 언어를 인식할 수 있으며, 오픈소스로 공개되어 누구나 무료로 사용할 수 있다.
↔ 짝 사례: S-03 · 존재하지 않는 판례를 법정에 제출한 변호사
Gmail 스팸 필터 — 매일 150억 건의 쓰레기를 걸러내는 보이지 않는 방패
구글은 Gmail의 스팸 필터가 하루 약 150억 건의 원치 않는 이메일을 차단하며, 정확도는 99.9%를 넘는다고 발표했다. 전 세계 이메일 트래픽의 약 45~50%가 스팸으로 추정되는데, 대부분의 Gmail 사용자는 스팸을 거의 보지 못한다.
↔ 짝 사례: S-23 · 342억 원을 증발시킨 가짜 화상회의 (CEO 딥페이크)
구글 맵 AI 교통 예측 — 출발 전에 도착 시간을 아는 마법
구글 맵은 매일 수억 명의 사용자가 제공하는 익명화된 GPS 데이터를 실시간으로 수집해 교통 상황을 파악한다. 2020년 DeepMind과의 협업으로 그래프 신경망(GNN) 기반 교통 예측 모델을 도입한 뒤, 도착 시간 예측(ETA) 정확도가 전 세계 주요 도시에서 평균 50% 이상 향상됐다.
↔ 짝 사례: S-30 · 자전거를 끌고 가는 보행자를 친 우버(Uber) 자율주행차
Gboard 연합학습 — 내 타자 습관을 배우되 내 데이터는 가져가지 않는 AI
구글의 모바일 키보드 Gboard는 사용자가 입력할 다음 단어를 AI가 예측해 제안한다. 핵심 혁신은 이 AI가 사용자의 타자 데이터를 구글 서버로 전송하지 않고도 학습할 수 있다는 것이다.
↔ 짝 사례: S-34 · 버그 고치려다 기밀을 바친 삼성전자 챗GPT 유출 사태
Duolingo AI 튜터 — 7억 사용자에게 1:1 과외를 제공하는 앱
7억 명 이상이 사용하는 언어 학습 앱 Duolingo는 2023년 GPT-4를 통합한 'Birdbrain' AI 엔진을 도입해 두 가지 핵심 기능을 추가했다.
↔ 짝 사례: S-55 · 전 세계 8만 명이 증언한 '인지적 퇴화'
칸아카데미 Khanmigo — 정답을 알려주지 않는 AI 튜터
2023년 칸아카데미가 출시한 Khanmigo는 GPT-4 기반이지만, 일반 ChatGPT와 근본적으로 다르게 설계됐다. 학생이 "이 수학 문제 풀어줘"라고 요청하면, Khanmigo는 정답을 주지 않는다.
↔ 짝 사례: S-53 · 공직자들의 '가짜 연수 보고서' 제출
Waymo 자율주행 — 인간보다 85% 적은 사고의 기록
2025년, Waymo가 공개한 안전 보고서와 Traffic Injury Prevention 학술논문에 따르면, Waymo의 완전 자율주행 로보택시는 수백만 마일의 상업 운행에서 인간 운전자 대비 사고 발생률이 85% 이상 낮았다.
↔ 짝 사례: S-30 · 자전거를 끌고 가는 보행자를 친 우버(Uber) 자율주행차
Surtrac — AI가 신호등을 바꾸자 출퇴근이 25% 빨라졌다
카네기멜론 대학이 개발한 Surtrac은 교차로마다 설치된 AI가 실시간 차량 흐름을 분석해 신호 타이밍을 초 단위로 최적화하는 시스템이다.
↔ 짝 사례: S-30 · 자전거를 끌고 가는 보행자를 친 우버(Uber) 자율주행차
Waymo 로보택시 — 자율주행이 도로 위에서 실제로 영업 중이다
Waymo는 피닉스, 샌프란시스코, 로스앤젤레스에서 안전 운전자 없이 완전 무인으로 운영되는 상업 로보택시 서비스를 제공하고 있다. 2025년 Traffic Injury Prevention 학술지에 발표된 데이터에 따르면, Waymo 자율주행 차량은 비교 가능한 인간 운전 기준 대비 부상 유발 충돌 사고율이 유의미하게 낮았다.
↔ 짝 사례: S-20 · 차 밑에 깔린 사람을 6미터 더 끌고 간 로보택시
Aurora 자율주행 트럭 — 잠들지 않는 장거리 트럭 운전사
Aurora Innovation은 고속도로 장거리 구간에서 자율주행 트럭을 운행하는 데 집중하고 있다. 미국에서 화물 트럭 사고의 주요 원인은 운전자 피로와 부주의인데, 장거리 고속도로 구간은 단조로운 환경이 피로를 가속화한다.
↔ 짝 사례: S-28 · 사람을 '상자'로 착각한 파프리카 선별 로봇
Zoox — 아마존이 만든 양방향 로보택시
Zoox는 기존 자동차를 개조한 Waymo와 달리, 처음부터 자율주행 전용으로 설계된 차량을 제작했다. 핸들과 페달이 없으며, 차체가 전후방 대칭이어서 양쪽 방향으로 동일하게 주행할 수 있다.
↔ 짝 사례: S-20 · 차 밑에 깔린 사람을 6미터 더 끌고 간 로보택시
Nuro 자율주행 배달 로봇 — 사람이 타지 않는 자율주행의 지혜
Nuro는 사람이 타지 않는 소형 자율주행 배달 차량을 개발했다. 2020년 2월, NHTSA로부터 자율주행 차량 최초의 규제 면제(exemption)를 획득했다.
↔ 짝 사례: S-42 · 자신의 전원을 끄려는 인간을 협박한 AI
Figure AI — BMW 공장에 출근한 최초의 범용 휴머노이드
2024년 2월, Figure AI는 범용 휴머노이드 로봇 Figure 02를 BMW의 미국 스파턴버그 공장 생산 라인에 시범 배치했다. 이는 범용 휴머노이드가 실제 제조 현장에서 작업한 최초의 사례 중 하나다.
↔ 짝 사례: S-28 · 사람을 '상자'로 착각한 파프리카 선별 로봇
Tesla Optimus — 세계 최대 자동차 회사가 만드는 범용 로봇
Tesla는 2022년 AI Day에서 Optimus 프로토타입을 공개한 뒤, 2024~2025년에 걸쳐 Gen 2를 개발했다. Tesla 공장 내부에서 물류 이동, 부품 분류 등 제한적 작업을 시범 수행 중이다.
↔ 짝 사례: S-42 · 자신의 전원을 끄려는 인간을 협박한 AI
Boston Dynamics Atlas 전기형 — 30년 연구의 결정체가 전기로 다시 태어나다
2024년 4월, Boston Dynamics는 30년간 개발해온 유압식 Atlas를 퇴역시키고 전기 구동 Atlas를 공개했다. 새 Atlas는 관절이 360도 회전 가능해 인간이 불가능한 자세로 작업할 수 있으며, 유압식 대비 소음이 극적으로 줄었다.
↔ 짝 사례: S-68 · 인간 조종자를 제거하려 한 AI 드론 (사고 실험)
Agility Robotics Digit — 아마존 물류센터에 걸어 들어간 로봇
Agility Robotics의 Digit는 이족 보행 로봇으로, Amazon의 물류센터에서 빈 토트(상자)를 선반에서 꺼내 이동시키는 작업을 테스트했다.
↔ 짝 사례: S-86 · 아마존 물류센터의 '인간 관리자 없는' 자동 해고 시스템
Unitree — 16,000달러 휴머노이드가 열어가는 로봇 대중화 시대
중국 로봇 기업 Unitree는 CES 2025에서 $16,000(약 2,100만 원) 수준의 범용 휴머노이드 로봇 G1을 공개해 업계에 충격을 줬다.
↔ 짝 사례: S-73 · '의미 있는 정보'만 보내겠다는 위성 AI의 치명적 오만
그래프캐스트 — 슈퍼컴퓨터보다 1,000배 빠른 기상예측
2023년, 구글 딥마인드의 그래프캐스트가 Science에 발표됐다. 이 AI 모델은 유럽중기예보센터(ECMWF)의 수치예보 모델과 비교해, 1,380개 검증 지표 중 90% 이상에서 더 정확한 예측을 보였다.
↔ 짝 사례: S-88 · AI가 찍어낸 가짜 논문과 '존재하지 않는 인용구'의 범람
지진·쓰나미 조기경보 — 기존 30분을 수 초로 줄인 AI
2021~2022년, Nature Communications에 발표된 복수의 연구에 따르면, AI 기반 지진·쓰나미 조기경보 시스템이 해저 압력 센서와 지진파의 초기 신호(P파)를 분석해 수 초 이내에 지진의 규모와 위치를 추정하고, 쓰나미 발생 가능성과 도착 시간, 파도 높이까지 예측하는 데 성공했다.
↔ 짝 사례: S-74 · 유무인 복합체계(MUM-T)의 서늘한 딜레마
DeepMind 데이터센터 냉각 — AI가 AI의 전기 요금을 40% 깎다
2016년, DeepMind은 Google 데이터센터의 냉각 시스템에 강화학습 AI를 적용해 냉각 에너지 소비를 40% 절감했다고 발표했다. 데이터센터는 서버가 발생시키는 열을 식히는 데 전체 전력의 상당 부분을 소비한다.
↔ 짝 사례: S-73 · '의미 있는 정보'만 보내겠다는 위성 AI의 치명적 오만
ALERTCalifornia — 연기가 보이기 전에 산불을 잡는 AI
캘리포니아는 매년 대규모 산불에 시달리며, 산불의 초기 10분이 진화 성패를 결정한다. UC San Diego가 개발하고 CAL FIRE가 운용하는 ALERTCalifornia는 캘리포니아 전역에 설치된 1,100대 이상의 고해상도 회전 카메라에서 AI가 실시간으로 연기와 불빛을 감지하는 시스템이다.
↔ 짝 사례: S-85 · 특정 집단의 사망 위험도를 오판한 의료 분류 AI
Global Forest Watch — 위성에서 불법 벌채를 실시간으로 감시하는 AI
세계자원연구소(WRI)와 메릴랜드 대학이 운영하는 Global Forest Watch는 위성 영상과 AI를 결합해 전 세계 산림의 변화를 거의 실시간으로 모니터링하는 공개 플랫폼이다.
↔ 짝 사례: S-88 · AI가 찍어낸 가짜 논문과 '존재하지 않는 인용구'의 범람
DeepMind + National Grid — AI가 풍력 발전량을 36시간 전에 알려주다
재생에너지의 가장 큰 약점은 간헐성이다. 바람이 언제 얼마나 불지 정확히 예측할 수 없으면, 전력 회사는 풍력 에너지를 "신뢰할 수 없는 전원"으로 취급해 가치를 할인한다.
↔ 짝 사례: S-15 · 질로우(Zillow)의 3억 달러짜리 알고리즘 파산
The Ocean Cleanup — AI가 해류를 읽어 플라스틱을 수거하다
The Ocean Cleanup은 네덜란드의 비영리 기관으로, 태평양 거대 쓰레기 지대(GPGP)의 플라스틱을 수거하는 프로젝트를 운영한다. AI는 이 프로젝트에서 두 가지 핵심 역할을 한다.
↔ 짝 사례: S-62 · 서로 다른 팩트를 섞어 '가짜 뉴스'를 창조한 AI 요약
PAWS — 밀렵꾼보다 먼저 도착하는 AI 순찰 경로
하버드와 USC 연구팀이 개발한 PAWS는 게임이론과 머신러닝을 결합해 밀렵꾼의 행동을 예측하고, 제한된 순찰 인력의 최적 경로를 생성하는 AI 시스템이다.
↔ 짝 사례: S-22 · 흑인에게 더 가혹했던 AI 재판관
AI 정밀 관개 — 물 한 방울도 낭비하지 않는 스마트 농업
전 세계 담수 소비의 약 70%가 농업 관개에 사용된다. 기후변화로 물 부족이 심화되는 가운데, AI 기반 정밀 관개는 "필요한 곳에, 필요한 양만, 필요한 시점에" 물을 공급해 낭비를 최소화한다.
↔ 짝 사례: S-37 · 기계의 좌표를 맹신한 칼끝의 비극 (AI 수술 내비게이션 오작동)
ClimaX — 기후 변화를 예측하는 AI 파운데이션 모델
2023년 Microsoft Research가 ICML에서 발표한 ClimaX는 기상·기후 분야의 '파운데이션 모델'을 지향한다. GPT가 텍스트의 범용 모델이듯, ClimaX는 기후 데이터의 범용 모델이다.
↔ 짝 사례: S-15 · 질로우(Zillow)의 3억 달러짜리 알고리즘 파산
NASA 진화 구조 — 인간이 상상하지 못한 형태를 설계한 AI
2023-24년, NASA는 생성형 AI를 활용해 우주선 부품의 새로운 구조를 설계했다. AI에게 '이 부품은 이 하중을 견뎌야 하고, 이 무게 이하여야 한다'는 물리적 제약 조건만 주면, AI는 인간 엔지니어가 상상하지 못했던 유기적 형태의 구조를 생성한다.
↔ 짝 사례: S-37 · 기계의 좌표를 맹신한 칼끝의 비극 (AI 수술 내비게이션 오작동)
Carbon Robotics 레이저 제초 — 살충제 없이 잡초를 태우는 AI
Carbon Robotics의 LaserWeeder는 고해상도 카메라와 AI 컴퓨터 비전을 사용해 밭을 달리면서 0.1초 이내에 작물과 잡초를 구분하고, 잡초에만 레이저를 조사해 태워 없앤다.
↔ 짝 사례: S-28 · 사람을 '상자'로 착각한 파프리카 선별 로봇
UPS ORION — 매일 5만 5천 대의 트럭이 AI가 짠 경로로 달린다
UPS가 10년 이상 개발해 2013년부터 전면 배치한 ORION은 매일 약 55,000명의 UPS 운전자에게 개별 최적 배송 경로를 계산해 제공한다.
↔ 짝 사례: S-78 · 매끄러운 AI 뒤에 숨겨진 '유령 노동'의 비극
아마존 물류 로봇 — 수십만 대의 로봇이 움직이는 창고
Amazon은 2012년 Kiva Systems를 7.75억 달러에 인수한 이후 물류 로봇의 규모를 꾸준히 확대해, 현재 전 세계 물류센터에 75만 대 이상의 로봇을 운용하고 있다.
↔ 짝 사례: S-86 · 아마존 물류센터의 '인간 관리자 없는' 자동 해고 시스템
John Deere See & Spray — 잡초만 골라서 농약을 뿌리는 AI 트랙터
John Deere의 See & Spray Ultimate은 36개의 카메라로 밭을 초당 수만 장씩 스캔하며 달리면서, AI가 작물과 잡초를 실시간으로 구분해 잡초에만 제초제를 분사한다.
↔ 짝 사례: S-28 · 사람을 '상자'로 착각한 파프리카 선별 로봇
지멘스 디지털 트윈 — 공장을 짓기 전에 AI로 먼저 돌려보다
지멘스는 제조업 디지털 트윈의 선도 기업이다. 디지털 트윈이란 실제 공장, 제품, 공정의 물리적 속성을 가상 공간에 정밀하게 복제하고, 실시간 센서 데이터로 동기화하는 기술이다.
↔ 짝 사례: S-15 · 질로우(Zillow)의 3억 달러짜리 알고리즘 파산
AI 비전 품질검사 — 0.1초 만에 불량을 잡아내는 기계의 눈
반도체 웨이퍼의 결함은 나노미터 단위이며, 인간의 눈으로는 발견이 불가능하다. KLA Corporation 등의 AI 비전 검사 시스템은 웨이퍼 표면을 고해상도로 스캔해 나노 수준의 결함을 0.1초 이내에 자동으로 탐지한다.
↔ 짝 사례: S-70 · 가짜 환자를 학습한 AI의 '살인적 처방' (IBM 왓슨 사태)
DHL AI 물류 예측 — 공급망 중단을 7일 전에 경고하는 시스템
DHL의 Resilience360(현 Everstream Analytics와 통합)은 전 세계 공급망에 영향을 줄 수 있는 수만 가지 변수 — 자연재해, 항만 혼잡, 파업, 정치적 불안, 전염병 — 를 AI로 실시간 모니터링하고, 공급망 중단 위험을 최대 7일 전에 경고한다.
↔ 짝 사례: S-15 · 질로우(Zillow)의 3억 달러짜리 알고리즘 파산
깃허브 코파일럿 — 개발자의 생산성을 55% 올린 AI 페어 프로그래머
2023년, GitHub과 연구팀이 발표한 실험에 따르면, 코파일럿을 사용한 개발자들이 동일한 코딩 과제를 55% 더 빨리 완료했다. 코파일럿은 개발자가 작성 중인 코드의 맥락을 파악해 다음에 올 코드를 실시간으로 제안하는 AI 도구다.
↔ 짝 사례: S-56 · AI 생성 코드의 40%에서 발견된 보안 결함
JP모건 COiN — 36만 시간의 법률 문서 검토를 자동화한 AI
2017년, Bloomberg 보도에 따르면, JP모건이 도입한 COiN(Contract Intelligence) 시스템은 변호사와 대출 담당자가 연간 36만 시간을 들여 수행하던 상업 신용대출 계약서 검토 업무를 수 초 만에 처리했다.
↔ 짝 사례: S-03 · 존재하지 않는 판례를 법정에 제출한 변호사
Cognition AI 'Devin' — AI가 코딩하고 인간이 감독하는 시대
2024년 3월, Cognition AI가 '세계 최초의 AI 소프트웨어 엔지니어'를 표방한 Devin을 공개했다. Devin은 단순 코드 제안을 넘어, 개발 요구사항을 받으면 스스로 계획을 세우고, 코딩하고, 디버깅하고, 테스트하고, 배포까지 수행하는 자율형 AI 에이전트다.
↔ 짝 사례: S-01 · 멈출 줄 모르는 비서, 자율형 에이전트의 무한 결제
Mastercard AI 사기탐지 — 0.05초 만에 수상한 결제를 잡아내다
Mastercard는 연간 1,430억 건 이상의 거래를 처리하며, 매 거래마다 AI가 0.05초(50밀리초) 이내에 사기 여부를 판단한다.
↔ 짝 사례: S-23 · 342억 원을 증발시킨 가짜 화상회의 (CEO 딥페이크)
Stripe Radar — 온라인 결제 사기를 머신러닝으로 차단하다
Stripe Radar는 Stripe 결제 플랫폼을 사용하는 수백만 기업의 거래 데이터를 집합적으로 학습해 사기를 탐지한다. 개별 소규모 온라인 쇼핑몰은 자체 사기 탐지 시스템을 구축할 여력이 없지만, Stripe Radar를 통해 글로벌 대기업 수준의 사기 방어를 받을 수 있다.
↔ 짝 사례: S-04 · 오픈클로(OpenClaw) '신 모드(God Mode)' 해킹 사태
BloombergGPT — 금융 데이터로만 학습한 전문 언어 모델
2023년 Bloomberg가 발표한 BloombergGPT는 500억 파라미터 규모의 금융 특화 LLM이다. 40년 이상의 금융 뉴스, 기업 공시, 애널리스트 보고서, SNS 데이터를 포함한 3,630억 토큰의 금융 전문 데이터셋(FinPile)과 3,450억 토큰의 범용 데이터셋으로 학습했다.
↔ 짝 사례: S-15 · 질로우(Zillow)의 3억 달러짜리 알고리즘 파산
HSBC AI 자금세탁 탐지 — 기계가 더러운 돈의 흐름을 추적하다
전통적 자금세탁 방지(AML) 시스템은 규칙 기반으로, "일정 금액 이상 현금 거래"나 "고위험 국가 송금" 등 정해진 조건에 해당하면 경보를 발생시킨다.
↔ 짝 사례: S-22 · 흑인에게 더 가혹했던 AI 재판관
Lemonade — AI가 3초 만에 보험금을 지급하다
Lemonade는 2016년 설립된 AI 기반 보험 회사로, 2020년 뉴욕증권거래소에 상장했다. 보험 가입부터 보험금 청구까지 전 과정을 AI가 처리한다.
↔ 짝 사례: S-18 · 에어캐나다 챗봇 '가짜 환불 규정' 사건
GPT-4 시험 합격 — 기계가 변호사 시험과 의사 시험을 통과한 날
2023년 OpenAI가 발표한 GPT-4 Technical Report에 따르면, GPT-4는 미국 변호사 시험(UBE)에서 상위 약 10% 수준의 점수를 기록했다.
↔ 짝 사례: S-03 · 존재하지 않는 판례를 법정에 제출한 변호사
AI 자동 채점 — 수천 편의 에세이를 AI가 읽고 점수를 매기다
ETS(Educational Testing Service)의 e-rater는 TOEFL, GRE 등의 에세이 채점에 사용되는 AI 자동 채점 시스템이다.
↔ 짝 사례: S-53 · 공직자들의 '가짜 연수 보고서' 제출
Microsoft Immersive Reader — 난독증 학생이 스스로 읽을 수 있게 된 날
Microsoft Immersive Reader는 텍스트의 가독성을 높이는 AI 기반 읽기 보조 도구로, Word, OneNote, Teams, Edge 등 Microsoft 제품 전반에 무료로 내장되어 있다.
↔ 짝 사례: S-55 · 전 세계 8만 명이 증언한 '인지적 퇴화'
Photomath — 카메라로 수학 문제를 찍으면 풀이까지 보여주는 AI
Photomath는 수학 문제를 카메라로 찍으면 AI가 문제를 인식하고 단계별 풀이 과정을 보여주는 앱이다. 단순히 정답만 보여주는 것이 아니라, 각 풀이 단계에 "왜 이 단계가 필요한지" 설명을 제공한다.
↔ 짝 사례: S-55 · 전 세계 8만 명이 증언한 '인지적 퇴화'
사이버 보안 AI — 침해 대응을 100일 단축한 디지털 방패
2024년, IBM과 Ponemon Institute의 'Cost of Data Breach Report'에 따르면, AI와 자동화를 보안에 광범위하게 활용한 기업은 그렇지 않은 기업에 비해 데이터 침해 사고의 탐지·대응 시간이 평균 100일 이상 단축됐다.
↔ 짝 사례: S-24 · 다크웹의 AI 피싱 도구 'FraudGPT'의 등장
에스토니아 전자정부 — 인구 130만 명의 나라가 세계 최고의 디지털 국가가 된 비결
에스토니아는 인구 130만 명의 소국이지만, 정부 서비스의 99%를 온라인으로 제공하는 세계 최고 수준의 전자정부를 운영한다. 결혼, 이혼, 부동산 매매 세 가지를 제외한 모든 행정 절차가 온라인으로 가능하다.
↔ 짝 사례: S-25 · 국가를 붕괴시킨 알고리즘 (네덜란드 보육수당 스캔들)
AI 드론 실종자 수색 — 열화상으로 숲 속의 사람을 찾다
전 세계 소방서, 경찰, 산악구조대가 실종자 수색에 열화상 카메라를 탑재한 드론을 도입하고 있다. AI는 드론이 촬영한 열화상 영상에서 인체의 체온 패턴을 자동으로 감지해 구조대원에게 GPS 좌표를 전달한다.
↔ 짝 사례: S-37 · 기계의 좌표를 맹신한 칼끝의 비극 (AI 수술 내비게이션 오작동)
코펜하겐 AI 심정지 감지 — 119 전화 속에서 죽음의 신호를 AI가 먼저 듣다
코펜하겐 응급의료서비스(EMS)는 AI를 사용해 119 응급 전화에서 심정지를 실시간으로 감지하는 세계 최초의 시스템을 운영한다. 2019년 Resuscitation에 발표된 연구에서, AI의 심정지 인식 민감도(84.1%)는 인간 상담원(72.5%)보다
↔ 짝 사례: S-19 · 뉴질랜드 마트 AI의 '염소가스 레시피' 추천
Casetext — 변호사의 판례 검색 시간을 90% 줄인 AI
Casetext는 AI 기반 법률 리서치 플랫폼으로, 2023년 GPT-4를 통합한 'CoCounsel'을 출시하며 법률 AI 시장의 선두에 섰다.
↔ 짝 사례: S-03 · 존재하지 않는 판례를 법정에 제출한 변호사
싱가포르 Smart Nation — 도시 국가가 AI 거버넌스의 교과서가 되다
싱가포르는 2014년부터 'Smart Nation' 이니셔티브를 국가 전략으로 추진하며, AI를 교통(자율주행 테스트베드), 의료(국가 건강 플랫폼), 행정(원스톱 정부 서비스), 보안(영상 분석) 등 전 분야에 통합했다.
↔ 짝 사례: S-25 · 국가를 붕괴시킨 알고리즘 (네덜란드 보육수당 스캔들)
비 마이 아이즈 + GPT-4 — 시각장애인의 눈이 된 AI
2023년 3월, 시각장애인 지원 앱 비 마이 아이즈(Be My Eyes)가 GPT-4의 비전 기능을 통합한 'Virtual Volunteer' 기능을 발표했다.
↔ 짝 사례: S-19 · 뉴질랜드 마트 AI의 '염소가스 레시피' 추천
Google Live Transcribe — 소리가 보이는 세상
2019년 Google이 출시한 Live Transcribe는 스마트폰의 마이크를 통해 주변의 모든 소리와 대화를 실시간으로 텍스트로 변환하는 무료 앱이다.
↔ 짝 사례: S-34 · 버그 고치려다 기밀을 바친 삼성전자 챗GPT 유출 사태
AI 수어 인식 — 손의 언어를 기계가 읽기 시작하다
수어는 전 세계 약 7,000만 명의 청각 장애인이 사용하는 제1 언어다. AI 수어 인식 기술은 카메라로 수어 동작을 촬영해 텍스트나 음성으로 자동 변환하는 것을 목표로 한다.
↔ 짝 사례: S-66 · AI 면접관이 숨긴 '보이지 않는 차별'
Microsoft Seeing AI — 시각 장애인에게 세상을 설명해주는 앱
Microsoft Seeing AI는 시각 장애인을 위한 무료 앱으로, 스마트폰 카메라를 통해 주변 세상을 음성으로 설명한다. 문서나 우편물의 텍스트를 읽어주고, 상품 바코드를 스캔해 제품 정보를 알려주고, 사람의 대략적인 나이·성별·표정을 설명하고, 지폐의 액면가를 식별하고, 주변 장면을 "공원 벤치에 사람이 앉아 있습니다" 식으로 묘사한다.
↔ 짝 사례: S-14 · 사업자에게 '불법'을 조장한 뉴욕시 챗봇
Google Project Relate — 비정형 발화를 AI가 알아듣는 세상
기존 음성인식 AI(Siri, Google Assistant 등)는 "표준적인 발음"에 최적화되어 있어, 구음 장애·뇌성마비·ALS·뇌졸중 후유증 등으로 비정형 발화를 하는 사용자의 음성을 인식하지 못하는 경우가 많다.
↔ 짝 사례: S-66 · AI 면접관이 숨긴 '보이지 않는 차별'
AI 이미지 대체텍스트 — 사진에 '보이지 않는 설명'을 다는 기술
웹에서 이미지에 대체텍스트(alt text)가 없으면, 시각 장애인은 스크린리더를 통해 "이미지"라는 단어만 듣게 된다. 이미지가 무엇을 담고 있는지 전혀 알 수 없다.
↔ 짝 사례: S-14 · 사업자에게 '불법'을 조장한 뉴욕시 챗봇
어도비 파이어플라이 — 저작권 걱정 없는 AI 창작의 표준
2023년 3월, 어도비가 파이어플라이(Firefly)를 발표했다. 이 AI 이미지 생성 도구의 핵심 차별점은 학습 데이터다.
↔ 짝 사례: S-65 · 나의 데이터로 나를 해고하는 조용한 착취
피터 잭슨의 비틀즈 음원 복원 — AI가 되살린 1969년의 목소리
2021년, 피터 잭슨 감독은 다큐멘터리 'The Beatles: Get Back' 제작을 위해 MAL이라는 AI 소프트웨어를 사용했다. 1969년에 녹음된 비틀즈의 원본 테이프는 여러 악기와 대화 소리가 하나로 뒤섞인 상태였다.
↔ 짝 사례: S-79 · AI 번역 오염으로 폐쇄된 '그린란드어 위키피디아'
AI 영상 복원 — 100년 전 흑백 필름이 컬러로 되살아나다
AI 영상 복원 기술은 크게 세 가지 축으로 작동한다. 첫째, 초해상도(Super Resolution): 저해상도 영상의 픽셀을 AI가 추론해 채워 고해상도로 변환한다.
↔ 짝 사례: S-44 · 프롬프트 한 줄로 완성된 직장 내 딥페이크
AI 게임 NPC — 대본 없이 대화하는 게임 캐릭터
기존 게임의 NPC는 미리 작성된 대사(대본)만 말할 수 있었다. 플레이어가 무엇을 물어보든, NPC의 응답은 제한된 선택지 안에 있었다.
↔ 짝 사례: S-67 · "천국에서 같이 살자"며 죽음을 동조한 AI
AIVA — 공식 등록된 최초의 AI 작곡가
2016년 설립된 AIVA는 프랑스의 저작권 협회 SACEM에 '작곡가'로 정식 등록된 최초의 AI다. 30,000곡 이상의 클래식 음악 악보를 학습한 뒤, 사용자가 "영화 트레일러용 웅장한 오케스트라 곡"이나 "로파이 카페 분위기 피아노 곡" 같은 스타일을 지정하면, 완전한 악보를 생성한다.
↔ 짝 사례: S-69 · 글로벌 스탠다드가 실종된 저작권의 붕괴
Runway — 에미상을 수상한 AI 영상 편집 도구
Runway는 텍스트 프롬프트로 영상 클립을 생성하고(Gen-2, Gen-3), 기존 영상의 배경 제거, 객체 추적, 스타일 변환 등을 AI로 자동화하는 도구다.
↔ 짝 사례: S-23 · 342억 원을 증발시킨 가짜 화상회의 (CEO 딥페이크)
Apple Intelligence — 개인정보를 지키면서 AI를 쓰는 법
2024년 WWDC에서 발표된 Apple Intelligence는 Apple의 AI 전략을 총괄하는 시스템이다. 핵심 설계 원칙은 "프라이버시 우선"이다.
↔ 짝 사례: S-34 · 버그 고치려다 기밀을 바친 삼성전자 챗GPT 유출 사태
Microsoft Copilot — AI가 오피스 전체에 스며들다
2023년 3월 Microsoft가 발표한 Microsoft 365 Copilot은 Word, Excel, PowerPoint, Outlook, Teams 등 일상 업무 도구 전체에 GPT-4 기반 AI를 통합했다.
↔ 짝 사례: S-34 · 버그 고치려다 기밀을 바친 삼성전자 챗GPT 유출 사태
Meta SeamlessM4T — 100개 언어를 실시간으로 넘나드는 AI 통역
2023년 Meta AI가 발표한 SeamlessM4T는 100개 언어를 지원하는 멀티모달 번역 모델로, 음성→음성, 음성→텍스트, 텍스트→음성, 텍스트→텍스트의 네 가지 번역 방향을 단일 모델로 통합한 최초의 시스템이다.
↔ 짝 사례: S-17 · '없는 책'과 '가짜 기자'를 창조한 AI 언론사
GPT-4o — 보고 듣고 말하는 AI가 일상으로 들어온 순간
2024년 5월 OpenAI가 발표한 GPT-4o('o'는 omni)는 텍스트, 음성, 이미지를 하나의 모델에서 동시에 처리하는 멀티모달 AI다.
↔ 짝 사례: S-67 · "천국에서 같이 살자"며 죽음을 동조한 AI
DB 모드. 카드 클릭 시 사례 본문 페이지로 이동합니다. 짝 사례 클릭 시 방패↔칼 점프.
책별 진입. 홈 페이지 방패편·칼편 인장 클릭 시 해당 종류만 필터된 상태로 도착합니다.
현재 상태. 샘플 200편. STEP 3에서 200편 전체가 들어갑니다.
책별 진입. 홈 페이지 방패편·칼편 인장 클릭 시 해당 종류만 필터된 상태로 도착합니다.
현재 상태. 샘플 200편. STEP 3에서 200편 전체가 들어갑니다.