인공 지능 탐구: AI는 과대 포장됐을까?
아마도 인공 지능(AI)보다 더 널리 퍼져 있거나 유행처럼 이야기되는 기술 관련 논제는 없을 것입니다. 2022년 11월, OpenAI가 ChatGPT를 출시하며 AI를 대중에 선보이면서 세상은 완전히 바뀌었습니다. AI 스타트업이 막대한 자금을 유치하기 시작했고, Microsoft와 Apple 같은 거대 기술 기업들이 자사 제품에 AI를 구축하기 위해 경쟁했으며, 실질적인 툴로서의 AI에 대한 대중의 인식이 정점을 찍었습니다.
이제 생성형 AI, 대규모 언어 모델, 머신 러닝, 신경망과 같은 용어는 전문 서비스부터 가전제품에 이르기까지 거의 모든 상업 분야에 등장하고 있습니다. 심지어 AI 토스터도 존재하죠.
그렇다면 AI란 정확하게 무엇일까요? 그리고 단순히 제품 판매를 위한 유행어로 사용되는 것인지, 아니면 실제로 더 높은 수준의 지능을 수행하는 것인지 어떻게 알 수 있을까요? 이번 블로그 게시물에서는 이러한 질문과 그 밖의 다양한 의문점을 자세히 알아보고, AI의 한계를 살펴보고, AI 워싱을 식별하는 팁을 공유하고, AI가 사이버 보안과 같은 업계를 어떻게 변화시키고 있는지 살펴봅니다.
AI 유행 파헤치기: AI는 무엇을 할 수 있는가?
인공 지능(AI)은 보통 인간이 하는 작업을 수행할 수 있는 시스템을 만드는 데 전념하는 컴퓨터 과학의 한 분야입니다. 이러한 시스템은 의사 결정, 복잡한 문제 해결, 창의적 사고와 같은 작업을 수행하도록 구축될 수 있습니다. AI 시스템은 정교한 알고리즘과 방대한 양의 데이터를 사용해 이러한 성과를 달성합니다.
하지만 이와 같은 일반적인 정의는 표면적인 것일 뿐입니다. AI가 무엇이고 무엇이 아닌지 더 잘 이해하기 위해 추론하는 AI와 생성형 AI라는 두 가지 광범위한 범주의 AI를 정의하는 것부터 시작하겠습니다.
추론하는 AI
추론하는 AI 는 텍스트, 이미지, 오디오, 비디오 등의 콘텐츠에서 정보를 추론하는 데 중점을 두는 기술의 한 종류입니다.
예를 들어, 고양이 사진이 제시되면 이 기술은 맥락 단서를 사용해 사진의 피사체를 정확하게 식별할 수 있습니다.
이러한 종류의 AI는 정보를 기반으로 추론할 수는 있지만 자체 콘텐츠를 생성할 수는 없습니다.
생성형 AI
생성형 AI(GenAI)는 지시를 통해 텍스트, 이미지, 오디오, 비디오 등의 새로운 콘텐츠를 생성할 수 있는 기술입니다.
예를 들어 생성형 AI 모델은 “고양이를 그려라”라는 명령을 받으면 고양이 그림을 생성합니다.
추론하는 AI와 생성형 AI는 동전의 양면과 같다고 생각할 수 있으며, 일반적으로 후자가 더 정교한 것으로 간주됩니다. 생성형 AI 개발에는 머신 러닝과 신경망 훈련의 조합이 포함됩니다.
구성요소 이해하기: AI는 어떻게 작동하는가?
신경망 은 뇌의 작동 방식에서 영감을 받았지만 더 간단하고 실용적인 방식으로 작동합니다. 신경망은 정보를 처리하는 여러 층의 인공 뉴런, 즉 노드로 구성된 기계입니다. 각 뉴런은 숫자(인풋)를 받아 간단한 계산을 수행한 다음 결괏값(아웃풋)을 내보냅니다.
신경망은 '가중치'라고 하는 일련의 숫자를 조정해 학습합니다. 이러한 가중치는 신경망의 작동 방식을 결정합니다. 지도 학습 중에는 데이터와 원하는 아웃풋이 신경망에 공급되며, 신경망은 이를 사용해 가중치를 설정합니다. 신경망은 매번 반복하며 실수를 통해 학습하면서 가중치를 조정해 원하는 아웃풋에 도달할 확률을 높입니다.
딥 러닝 은 더 강력한 그래픽 처리 장치(GPU)와 더 정교한 훈련 알고리즘의 등장으로 떠오른 머신 러닝의 하위 집합으로, 더 많은 뉴런 레이어가 추가되어 훨씬 더 뛰어난 성능을 발휘합니다. 딥 러닝에서 '딥'은 신경망의 레이어 수를 의미하며, 지적으로 깊다는 뜻이 아니라 물리적으로 깊다는 뜻입니다.
딥 러닝 알고리즘의 대표적인 예로는 인간의 언어로 된 글을 이해하고 생성하도록 학습된 ChatGPT와 같은 대규모 언어 모델 (LLM)이 있습니다. LLM은 텍스트 시퀀스를 인풋으로 받아 시퀀스의 다음 단어에 대한 확률을 출력합니다. 이 기능은 챗봇이 질문이나 코멘트에 적절한 응답을 제공하는 데 도움이 됩니다.
LLM은 일반적으로 웹에서 수집한 방대한 양의 텍스트로 학습됩니다. 신경망과 마찬가지로 LLM의 가중치는 자기 지도 학습을 통해 조정되어 합리적인 다음 단어의 확률을 높입니다. 현재 사용되는 가장 정교한 LLM의 경우 수천억 개의 가중치로 아웃풋을 조정합니다.
AI일까? 아니면 AI 워싱일까?
이제 딥 러닝과 LLM의 기초 내용을 이해했으니, 특정 상용 제품이 정말 AI 기반인지 아니면 AI 워싱의 예인지 생각해 볼 수 있습니다.
AI 워싱은 기업이 AI 과대광고를 통해 수익성을 높이려는 시도의 일환으로 자사 제품에 AI를 얼마나 활용했는지에 대해 오해의 소지가 있거나 과장된 주장을 할 때 발생합니다.
AI 워싱인지 판단하려면 제품을 평가할 때 이렇게 질문하세요.
이 제품은 허용 가능한 아웃풋을 생성하는 데 사람의 개입이 크게 필요한가요? 진정한 AI는 높은 수준의 자율성을 특징으로 해 사람의 인풋은 최소화한 채로 허용 가능한 결괏값을 제공합니다.
이 제품을 만든 회사는 AI 구동에 사용하는 데이터 종류와 알고리즘을 투명하게 공개하나요? 제품의 내부 작동 방식 및 프로세스를 공개하지 않고 제품의 인풋 및 아웃풋에만 집중하는 블랙박스 접근 방식은 종종 기술이 주장하는 것만큼 좋지 않을 수 있다는 적신호입니다.
안타깝게도 위의 질문을 통과하지 못한 제품이나 서비스를 홍보하는 데 AI라는 용어를 사용하는 기업의 사례는 너무 많습니다. 그렇기 때문에 기업의 초반 주장 이면을 좀 더 자세히 조사해 제품이 정말 AI 기반 제품인지를 파악해야 합니다.
편향과 할루시네이션
AI 솔루션을 평가할 때 고려해야 할 다른 중요한 사항도 있습니다. '할루시네이션'은 기억해 두어야 할 핵심 개념입니다. AI 할루시네이션은 거짓이거나, 오해의 소지가 있거나, 무의미한 결괏값을 말합니다. 이처럼 잘못된 결괏값은 불충분하거나 편향된 데이터를 사용한 학습을 포함해 다양한 요인 때문에 발생하며 AI 구현 시 가정으로 이어질 수 있습니다.
AI 모델은 학습 데이터를 기반으로 결과를 예측하도록 설계되었기 때문에 잘못된 데이터 수집은 잘못된 결과를 초래할 뿐이라는 점을 기억해야 합니다.
AI 유행 주기 이해하기
새로운 AI 혁신이 나올 때마다 나타나는 급변하는 흐름, 거짓된 약속, 과장된 기대를 이해하는 한 가지 방법은 Gartner가 제작한 차트를 살펴보는 것입니다.
지난 6월, Gartner는 새로운 기술이 어떻게 발전하고, 성숙해지며, 일반 대중에게 채택되는지 추적하는 2024 Hype Cycle for Artificial Intelligence을 발표했습니다.
첫 번째 단계에서는 새로운 기술이 혁신 트리거를 통과해 혁신의 정점을 향해 나아가면서 주목을 받고 유행이 시작됩니다.
정점에 도달한 후에는 기술이 환멸의 나락으로 떨어지면서 어려움이 닥칩니다. 사람들이 더 이상 부풀려진 기대에 영향받지 않고 기술의 실제 역량을 파악해 실용적인 애플리케이션을 고안하기 시작하면서 생산성 정체기로 나아갈 수 있습니다.
Gartner에 따르면, AI는 유행 주기에서의 이동 속도가 빠르며 생성형 AI는 이미 환멸의 저점에 도달했습니다. 부정적인 이름이지만 이 단계는 사실 사람들이 AI의 한계를 더 잘 이해하고 AI가 한 약속을 실천에 옮기도록 자극하는 진정한 혁신의 기회를 제공합니다. 현재 이 현상이 일어나고 있는 업계는 사이버 보안입니다.
사이버 보안 업계의 AI: 위협 탐지의 미래
AI 혁명이 사이버 보안을 좋은 쪽으로든 나쁜 쪽으로든 변화시켰다는 것은 의심의 여지가 없습니다.
AI 모델이 더 정교해짐에 따라 사이버 범죄자들이 사용하는 기법도 정교해지고 있습니다. 공격자들은 점점 더 생성형 AI를 사용해 공격을 자동화하고 강화하고 확장하고 있으며, 그 결과 탐지 및 방어가 어려운 위협이 발생하고 있습니다.
그러나 사이버 보안에 자동화를 통합하면 상당한 기회가 생기며, 특히 위협 탐지의 영역에서 그렇습니다. 사이버 보안 전문가는 AI를 사용해 대량의 데이터를 직접 분석하는 것보다 훨씬 빠르게 패턴을 식별할 뿐 아니라 잠재적인 위협을 알릴 수 있는 사용자 행동의 비정상을 탐지할 수 있습니다.
또한 AI를 사용해 사고 대응 프로세스를 능률화할 수 있습니다. 영향을 받는 시스템 격리, 악성 트래픽 차단, 알림 시작 등 탐지된 위협에 대응해 미리 정의된 조치를 자동으로 수행함으로써 AI는 잠재적인 위협에 실시간으로 대응할 수 있습니다.
현실적으로 활용: AI, 유행이 아닌 결괏값만을 믿기
Akamai는 2015년부터 딥 러닝 AI를 사용해 솔루션을 강화 해 왔습니다.
Akamai의 AI 툴은 트래픽이 봇인지 인간 사용자인지 판단하는 것부터 API 남용 및 사기성 웹사이트 식별에 이르기까지 다양한 중요 작업을 수행합니다. Akamai 솔루션은 거의 10년 동안 머신 러닝을 활용해 왔으며, 지금도 고객에게 분명한 장점이 있는 경우에 최신 AI 기술을 제품에 추가함으로써 그 여정을 계속하고 있습니다.
Akamai는 AI와 관련해 AI 기술을 사용하는 방법과 이유에 관해 투명성을 유지해 역량을 과장하거나 AI 워싱에 일조하지 않는다는 핵심 원칙을 갖고 있습니다.
Akamai는 AI를 신중하고 효과적으로 활용하기 위해 최선을 다하고 있으며, AI에 대한 이해도가 계속 높아짐에 따라 점점 더 역량을 확대하고 있습니다. 즉, 인위적인 과대 포장 없이 AI를 현실적으로 활용하고 있습니다.