AI 리스크 대응의 첫걸음은 정책이 아니라 ‘인지’다

AI 리스크를 평가할 때 대부분의 조직은 알고리즘 편향, 지식재산권 문제, 새로운 규제 같은 복잡한 위협에 집중한다. 하지만 최근 급격히 커지고 있는 또 하나의 리스크는 훨씬 단순하다. 직원이 AI를 사용하고 있다는 사실조차 인지하지 못하는 경우가 많다는 점이다.
이제 AI는 기업의 혁신 연구소나 데이터 과학팀에만 머물러 있지 않다. 마이크로소프트 코파일럿, 구글 제미나이, 이메일 요약기, CRM 챗봇, 채용 플랫폼 등 일상적인 업무 도구에 자연스럽게 내장돼 있다. 많은 직원이 AI를 매일 사용하고 있지만, 스스로는 그 사실을 모르고 있는 경우가 대부분이다.
미국인의 거의 모두가 AI 기능이 포함된 제품을 사용하고 있지만, 이 가운데 약 64%는 자신이 AI를 쓰고 있다는 인식이 없다. 2024년에 직무 교육을 받은 기업의 직원 가운데, AI 관련 교육을 받았다고 답한 비율은 24%에 불과하다. 그런데도 직원들은 의도하든 의도하지 않든 AI를 사용하고 있다. 그리고 이를 둘러싼 공포, 혼란, 불명확한 정책은 예상치 못한 문제를 일으킬 수 있다.
결국 조직은 점점 더 많은 위험에 노출되고 비공식적인 AI 사용이 확산되며, 정책은 문서상으로만 존재하고 실질적인 효력을 갖지 못하게 된다.
‘정책과 현실’을 연결하는 고리는 ‘인지’
AI 정책 자체는 반드시 필요하다. 정책은 기대 행동을 명확히 하고 조직의 원칙을 설명하며, 책임 있는 사용을 위한 가이드라인 역할을 한다. 하지만 아무리 잘 만든 정책이라도, 인지와 실천을 위한 투자가 병행되지 않으면 효과를 발휘하기 어렵다.
직원은 자신이 이해하지 못한 정책을 따를 수 없다. 많은 직원은 자신이 사용하는 도구에 AI 기능이 포함돼 있다는 사실조차 모르며, 그런 기능을 사용할 때 어떤 책임이 따르는지도 모른다. 이 격차를 좁히려면 단순히 규칙을 공지하는 것으로는 부족하다. 지속적인 교육과 맥락에 맞는 실무 지원이 필요하며, 특히 빠르게 변화하고 분산된 환경에서는 더욱 그렇다.
AI 사용 역량 확산과 리스크 완화를 위한 5가지 고려사항
AI 도구와 정책에 대한 명확한 이해 없이 업무를 수행하면, 의도치 않은 오용, 비공식적 사용, 거버넌스 기준의 일관적이지 않은 적용 같은 리스크가 발생한다. 다음 다섯 가지는 이런 지식 격차를 줄이고, 조직 전반에 AI 이해도와 리스크 인식 문화를 확산하는 데 필요한 핵심 요소다.
1. 규칙보다 먼저 ‘인지’부터 시작하라
생성형 AI나 예측형 AI가 일상적인 플랫폼에 내장된 지금, 대부분 사용자는 AI와 무의식적으로 상호작용하고 있다. 그래서 어떤 교육이든 첫 단계는 ‘인지’가 돼야 한다.
직원에게 AI를 실무에 밀접한 방식으로, 실제 사례에 기반해 이해시켜야 한다. 단순히 “AI 도구에 민감한 정보를 업로드하지 말라”라고 말해서는 안 된다. 어떤 도구가 AI인지, 언제 AI를 사용하는지, 어떤 행동이 왜 리스크를 만드는지를 스스로 구분할 수 있어야 한다.
비기술 부서도 이해할 수 있는 쉬운 정의부터 제공해야 한다. 익숙한 용어를 사용하고, 이 메시지를 제약이 아닌 ‘공동 책임’으로 제시해야 한다. 이는 조직을 보호할 뿐 아니라, 실무자가 더 똑똑한 의사결정을 내릴 수 있도록 돕는다는 의미로 다가가야 한다.
2. 정책 수립 과정에 직원을 참여시켜라
일하는 방식을 규정하는 도구와 규칙에 스스로 관여했다고 느끼면, 직원은 더 잘 이해하고 기억하며, 실제로 준수하게 된다. 예를 들어, 직원에게 AI 정책 초안을 검토하게 하고, 너무 기술적이거나 모호한 문장을 피드백 받는 과정은 부서 간 대화를 촉진하고 인식의 사각지대를 발견하며, 정책을 더 실용적으로 다듬는 데 큰 도움이 된다.
무엇보다 이 과정은 명확한 메시지를 전한다. 이 정책은 법무팀이나 기술팀이 일방적으로 만든 문서가 아니라, 실무에 적용되도록 함께 만든 기준이라는 점이다. 이처럼 참여 기반 방식은 정책을 단순 문서가 아닌 ‘공동의 기준’으로 만든다. 조직 전반에 걸쳐 신뢰를 구축하고 정책 적용률을 높이며, 특히 복잡한 조직일수록 효과는 더 크다.
3. ‘드립 마케팅 방식’으로 반복 학습을 유도하라
망각 곡선에 대한 연구에 따르면, 사람은 학습한 지 1시간 이내에 새 정보를 절반 이상 잊어버리고, 일주일 안에 훨씬 더 많은 내용을 잊는다.
그래서 일회성 정책 설명회나 정적인 교육 모듈은 행동 변화로 이어지지 않는다. 조직은 대신 ‘드립 마케팅 (Drip Marketing)’ 방식을 도입해야 한다. 이메일, 슬랙, 마이크로소프트 팀즈, 사내 대시보드 같은 실사용 채널을 통해 짧고 집중된 메시지를 주기적으로 전달하는 방식이다.
이런 마이크로러닝 방식은 정보의 기억률을 높이고 장기적인 익숙함을 형성한다. 특히 실시간 툴, 사용례, 변화하는 규제 리스크에 맞춰 메시지를 구성하면, 단순 반복 교육이 아닌 전략적 역량 강화 수단으로 작동한다.
4. 역할과 리스크에 따라 교육 내용을 달리하라
모든 AI 사용이 동일한 수준의 리스크를 가지는 것은 아니다. 생성형 모델로 코드를 작성하는 개발자는 AI 기반 글쓰기 도구를 사용하는 마케팅 담당자와 전혀 다른 노출 위험을 가진다. 예측 분석 기반으로 의사결정을 내리는 임원은 챗봇 플랫폼을 다루는 고객 응대 직원과는 다른 책임을 지게 된다.
따라서 역할에 따른 리스크 수준이 교육 강도를 결정해야 한다. 리스크가 높은 직무는 주기적인 리마인드나 시나리오 기반 시뮬레이션이 필요하고, 리스크가 낮은 팀은 온보딩 브리핑이나 상황별 메시지 정도로 충분할 수 있다.
직무, 지역, 사용 도구에 따라 모듈형 학습 경로를 설계해야 한다. 특히 지역별 규제를 고려해야 한다. 예를 들어, 동일한 툴을 사용하더라도 유럽연합 직원은 EU AI 법안에 따라 미국 직원보다 더 엄격한 투명성 기준을 따라야 할 수 있다. 교육은 이런 차이를 반드시 반영해야 한다.
5. 교육 이수율과 함께 ‘이해도’를 측정하라
AI 교육 효과를 평가할 때, 교육 이수율만 보는 경우가 많다. 하지만 교육 과정을 마쳤다고 내용을 이해했다는 보장은 없다. 실제로 가장 위험한 신호는 ‘침묵’이다. 직원이 질문도 하지 않고 피드백도 없고 확신이 없다는 표시도 하지 않는다면, 이해했기 때문이 아니라 아예 무관심한 상태일 수 있다.
따라서 정량적 지표와 정성적 신호를 모두 함께 추적해야 한다.
정량적 지표는 다음과 같다.
- 필수 교육 이수율
- 모듈별 학습 시간
- AI 도구나 정책 관련 헬프데스크 문의 수
정성적 신호는 다음과 같다.
- 교육 이후 피드백 설문
- 신규 도구에 대한 포커스 그룹 테스트
- 팀 리더와의 비공식 대화
이런 신호는 조직이 지식 격차를 조기에 발견하고, 그에 따라 커뮤니케이션 전략을 조정할 수 있도록 도와준다. 동시에, AI 사용이 확산되는 조직 환경에 맞춰 교육과 감독이 함께 진화하는 유연한 거버넌스를 가능하게 한다.
‘인지’를 조직 역량으로 전환하라
AI가 일상적인 업무 흐름에 깊숙이 들어오고 있는 지금, 조직은 AI 거버넌스를 가능하게 할 인지, 이해, 행동 변화에 투자해야 한다. AI 활용 역량은 더 이상 단순한 컴플라이언스 체크리스트가 아니라 기업의 핵심 역량으로 다뤄야 한다.
무대응 상태가 낳을 수 있는 결과는 의도치 않은 오용, 정책의 일관성 없는 적용, 규제 리스크 확산, 그리고 AI 기술에 대한 신뢰 상실이다. 하지만 반대로, 직원이 AI를 인지하고 의문을 제기하고, 책임감 있게 활용하도록 만드는 조직은 그만큼 더 명확하고 자신 있게 혁신할 수 있다.
AI 역량 강화의 진짜 목적은 단순히 리스크를 회피하는 것이 아니다. AI 중심 세계에서 성공적으로 나아갈 준비를 갖추는 것이다.
dl-ciokorea@foundryco.com