미리보기
미리듣기
AI는 이미 뛰어난 기술이지만, 산업을 바꾸는 것은 전략이다. 언캐니 밸리의 불안을 넘어, AI를 어떤 문제 해결에 고용할 것인가를 묻는다. 에디슨과 잡스의 사례, 캐즘 이론을 통해 실무자가 현장에서 AI를 활용할 전략적 사고의 프레임을 제시한다.
AI 전략이 실패하는 주요 원인은 1) 명확한 비즈니스 목적 없이 파일럿 프로젝트부터 시작하고, 2) 데이터 인프라가 준비되지 않은 채 도입을 강행하며, 3) 조직 내 협업 체계나 의사 결정 구조가 기술 중심으로 왜곡되는 데 있다. 기술의 잠재력은 분명하지만, 그것을 어디에, 어떻게 활용할지를 정의하지 않으면 결과는 아무것도 바꾸지 못한다. 또한 전략 없는 기술 도입은 조직 내부에 새로운 혼란을 초래하기도 한다. 특히 AI는 기존 업무 방식에 근본적인 변화를 요구하는 기술이기 때문에, 단순한 도입만으로는 성과를 만들기 어렵다. 예를 들어, AI를 도입했지만 여전히 ‘사람의 방식’으로 의사 결정을 내리고, ‘사람의 속도’에 맞춰 일하고 있다면, 기술은 무력해질 수밖에 없다. 따라서 AI 도입은 단순한 기술 적용이 아니라 전략적으로 조직 전체의 문제 해결 구조를 재설계하는 작업과 맞닿아 있어야 한다.
-01_“AI가 바꾼 산업 현장과 기술보다 전략인 이유” 중에서
발달심리학자 로버트 케건(Robert Kegan) 박사에 따르면, 사람들이 변화에 저항하는 것은 자신에게 이익이 되지 않는다고 생각해 동의하지 않거나 관성을 지키려는 이유가 크다. 이는 개인의 심리적 방어 체계의 작용이며, 자신도 인식하지 못하는 무의식적인 위험 회피 메커니즘에 가깝다. 특히 실제 결과물에 따른 이성적인 판단보다는 감성적이고 본능적인 위기감에 반대하는 경우도 생긴다.
이는 새로운 기술을 대하는 인류의 역사가 지속적으로 증명해 왔다. 실제 산업혁명 시기의 기계 파괴 현상이었던 ‘러다이트 운동’을 두고, 당시 영국 상원의원이었던 바이런(George Gordon Byron)은 더욱 근본적인 ‘신뢰의 부재’를 지적했다. 바이런은 “이러한 절망과 동요에는 더 깊은 원인이 있다. 앞선 정책들이 안락함을 파괴하기 전까지는, 그 누구도 이러한 극단적인 행동을 하지 않았다는 사실을 알아야 한다”라고 일갈하기도 했다.
-03_“현장에서 필요한 전략적 질문들” 중에서
보안 관제에서 가장 치명적인 문제는 위험을 발견해도 실제로 대응하지 못하는 상황이다. AI가 수백 개의 이상 징후를 찾아내더라도, 그것이 구체적인 행동으로 이어지지 않으면 결국 아무 소용이 없기 때문이다. 진정한 보안 시스템은 ‘위험 포착 → 상황 판단 → 즉시 대응’이 자연스럽게 연결되어야 하는 살아 있는 프로세스여야 한다.
-06_“보안 관제에서의 전략” 중에서
모든 스타트업이 이런 거대한 비전을 가질 필요는 없다. 하지만 기업과 투자자 모두 해당 기술이 AI의 큰 그림에서 어떤 역할을 하는지 이해해야 한다. 단순히 “우리는 AI로 고객 상담을 자동화합니다”라고 설명하는 기업과 “우리는 AI가 모든 고객과 동시에 소통할 수 있는 ‘편재성’을 실현합니다”라고 설명하는 기업의 차이는 명확하다. 후자는 기술 환경이 급변하더라도 진화할 수 있는 여지를 가지고 있으며, 이런 기업들이 장기적으로 생존할 가능성이 높다.
-09_“투자에서의 전략” 중에서