본문 바로가기

개발자

2025년 예측: WebAssembly, Agentic AI, 데이터 분류, AI 게이트웨이 및 소규모 언어 모델

반응형

 

2025년 예측: WebAssembly, Agentic AI, 데이터 분류, AI 게이트웨이 및 소규모 언어 모델

 

그 어느 때보다 많은 기업이 퍼블릭 클라우드, 온프레미스, 엣지 컴퓨팅에 분산된 하이브리드 IT 자산에 대해 고민하고 있습니다. 이로 인해 서로 다른 환경 전반에서 보안, 전송, 운영을 표준화하는 데 상당한 어려움이 있습니다. 이처럼 끊임없이 변화하는 배경에서 2025년에 주목해야 할 주요 트렌드는 무엇일까요? F5 전문가들로 구성된 엘리트 팀을 구성하여 자세한 내용을 알아보았습니다. 

 

 

 

첫 번째 줄: Ken Arora, F5 Distinguished Engineer, Kunal Anand, F5 최고 혁신 책임자 & Lori MacVittie, F5 Distinguished Engineer. 두 번째 줄: James Hendergart, F5 기술 연구 수석 이사, Laurent Quérel, F5 Distinguished Engineer & Oscar Spencer, F5 수석 엔지니어. 그 어느 때보다 기업은 퍼블릭 클라우드, 온프레미스 및 엣지 컴퓨팅에 분산된 하이브리드 IT 자산과 씨름하고 있습니다. 이는 서로 다른 환경에서 보안, 제공 및 운영을 표준화하는 측면에서 상당한 과제를 안겨줍니다.

 

 

2025년 기술 #1: WebAssembly

 

WebAssembly(Wasm)는 하이브리드 멀티클라우드 환경에서 이식성을 위한 경로를 제공하여 Wasm 런타임이 작동할 수 있는 모든 곳에 애플리케이션을 배포하고 실행할 수 있는 기능을 제공합니다.

 

하지만 Wasm은 코드의 교차 이식성에 대한 약속의 표현 그 이상입니다. 성능과 보안 관련 이점을 제공하는 동시에 브라우저 기반 애플리케이션의 기능을 풍부하게 하는 새로운 가능성을 열어줍니다.

 

2025년에 브라우저의 WebAssembly는 급격한 변화를 겪지 않을 것으로 예상됩니다. 주요 개발은 WASI(WebAssembly System Interface) Preview 3의 출시와 함께 브라우저 외부에서 이루어지고 있습니다. 이 업데이트는 비동기 및 스트림을 도입하여 프록시와 같은 다양한 컨텍스트에서 스트리밍 데이터와 관련된 주요 문제를 해결합니다. WASI Preview 3은 Wasm 모듈에서 데이터 이동을 처리하기 위한 효율적인 방법을 제공하고 데이터 처리에 대한 미세 조정된 제어를 가능하게 합니다.

 

또한 비동기를 도입하면 언어 간 구성성이 향상되어 비동기 및 동기 코드 간의 원활한 상호 작용이 가능해져 Wasm 네이티브 언어에 특히 유용합니다. WASI 표준이 안정화됨에 따라 Wasm 채택이 크게 증가하여 개발자에게 강력한 툴링과 이러한 발전을 기반으로 구축할 수 있는 안정적인 플랫폼을 제공할 수 있을 것으로 예상할 수 있습니다.

 

Wasm이 이전 기술에 내재된 일부 문제를 해결할 수 있다고 가정하면 오늘날 조직의 95%가 어려움을 겪고 있는 이식성 문제가 운영과 같은 IT 기술 스택의 다른 중요한 계층으로 전환될 것입니다.

 

이러한 과제를 해결하기 위해 경쟁하는 것이 생성 AI이며 점점 더 현실화되는 AIOps의 미래입니다. 전체 스택 관찰 가능성에 의해 정보를 얻은 AI 기반 분석에 의해 주도되는 변경 및 정책인 운영에 대한 이 환상적인 관점은 생성 AI의 놀라운 진화 속도 덕분에 매일 현실에 가까워지고 있습니다.

 

Oscar Spencer, F5의 수석 엔지니어

 

2025년 기술 #2: 에이전트 AI

 

자율 코딩 에이전트는 코드 생성, 테스트, 최적화와 같은 주요 작업을 자동화하여 소프트웨어 개발에 혁명을 일으킬 준비가 되어 있습니다. 이러한 에이전트는 개발 프로세스를 크게 간소화하여 수동 작업을 줄이고 프로젝트 일정을 단축합니다. 한편, 대규모 멀티모달 에이전트(LMA)의 등장은 AI 기능을 텍스트 기반 검색을 넘어 더 복잡한 상호 작용으로 확장합니다.

 

AI 에이전트가 인터넷을 재편함에 따라 웹사이트와의 안전하고 효율적인 상호 작용을 용이하게 하도록 설계된 에이전트별 브라우징 인프라가 개발되는 것을 보게 될 것입니다. 이는 복잡한 웹 작업을 자동화하여 전자 상거래와 같은 산업을 혼란에 빠뜨릴 수 있으며, 보다 개인화되고 대화형 온라인 경험으로 이어질 수 있습니다.

 

그러나 이러한 에이전트가 일상 생활에 더욱 통합됨에 따라 AI 인증, 데이터 개인 정보 보호 및 잠재적 오용과 관련된 문제를 관리하는 데 새로운 보안 프로토콜과 규정이 필수적입니다.

 

2028년까지 상당수의 엔터프라이즈 소프트웨어가 AI 에이전트를 통합하여 작업 프로세스를 혁신하고 반복적 워크플로에서 더 빠른 토큰 생성을 통해 실시간 의사 결정을 가능하게 할 것으로 예상됩니다. 이러한 진화는 또한 에이전트 중심 웹 개발을 위한 새로운 도구와 플랫폼의 생성으로 이어질 것입니다.

 

사실 AI의 이점을 최대한 활용하려면 데이터가 필요합니다. 그리고 많은 양의 데이터가 필요합니다. 거의 절반(47%)의 조직이 AI에 대한 데이터 전략이 없다고 인정한다는 점을 감안하면 이는 상당한 과제입니다. 조직이 보유한 데이터의 양(구조화, 비구조화 및 실시간 메트릭)은 엄청납니다. 그 데이터를 카탈로그화하는 데도 상당한 투자가 필요합니다.

 

Laurent Quérel, F5 Distinguished Engineer

 

2025년 기술 #3: 데이터 분류

 

기업 데이터의 약 80%가 비정형입니다. 앞으로 생성 AI 모델은 비정형 기업 데이터를 탐지하고 분류하는 데 선호되는 방법이 될 것이며, 정확도는 95%가 넘습니다. 이러한 모델은 시간이 지남에 따라 더 효율적이 되어 컴퓨팅 파워가 덜 필요하고 추론 시간이 더 빨라질 것입니다. 데이터 보안 포스처 관리(DSPM), 데이터 손실 방지(DLP), 데이터 액세스 거버넌스와 같은 솔루션은 다양한 보안 서비스를 제공하기 위한 기반으로 민감한 데이터 탐지 및 분류에 점점 더 의존하게 될 것입니다. 네트워크 및 데이터 제공 서비스가 융합됨에 따라 플랫폼 통합으로 인해 공급업체는 포괄적이고 비용 효율적이며 사용하기 쉬운 플랫폼을 제공하여 진화하는 기업 요구 사항을 충족함으로써 시장 점유율을 확보하기 위해 제품을 개선하게 될 것입니다.

 

생산성에서 워크플로 자동화, 콘텐츠 생성에 이르기까지 모든 것에 생성 AI를 활용하려는 조직 간의 공통된 욕구는 조직이 AI 기능을 배포하기 시작하면서 새로운 애플리케이션 아키텍처 패턴의 도입으로 이어지고 있습니다. 이 패턴은 클라이언트, 서버, 데이터라는 기존의 세 가지 초점 계층을 확장하여 추론이 배포되는 새로운 AI 계층을 통합합니다.

 

James Hendergart, Sr. Dir. Technology Research, F5

 

2025년 기술 #4: AI 게이트웨이

 

AI 게이트웨이는 API 게이트웨이의 자연스러운 진화로 부상하고 있으며, AI 애플리케이션의 요구 사항을 충족하도록 특별히 맞춤화되었습니다. 클라우드 액세스 보안 브로커(CASB)가 엔터프라이즈 SaaS 앱 보안을 전문으로 하는 것과 유사하게 AI 게이트웨이는 환각, 편견, 탈옥과 같은 고유한 과제에 집중할 것이며, 이는 종종 원치 않는 데이터 공개로 이어집니다. AI 애플리케이션의 자율성이 높아짐에 따라 게이트웨이는 강력한 가시성, 거버넌스, 공급망 보안을 제공하여 잠재적인 공격 벡터가 된 교육 데이터 세트와 타사 모델의 무결성을 보장해야 합니다.

 

또한 AI 앱이 성장함에 따라 기존 애플리케이션에 비해 AI 애플리케이션의 운영 비용이 높기 때문에 분산 서비스 거부(DDoS) 공격 및 비용 관리와 같은 문제가 중요해집니다. 또한 요약 및 패턴 분석과 같은 작업을 위한 AI 앱과의 데이터 공유가 증가함에 따라 보다 정교한 데이터 유출 보호가 필요합니다.

 

앞으로 AI 게이트웨이는 역방향 및 정방향 프록시를 모두 지원해야 하며, AI 소비가 AI 생산을 앞지르면서 단기적으로 정방향 프록시가 중요한 역할을 합니다. 중간 프록시는 벡터 데이터베이스와 대규모 언어 모델(LLM) 간과 같이 AI 애플리케이션 내 구성 요소 간 상호 작용을 관리하는 데 필수적입니다.

 

위협의 본질이 변화함에 따라 보안에 대한 접근 방식도 바뀌어야 합니다. 많은 클라이언트가 인간을 대신하여 자동화된 에이전트가 되면서 현재의 봇 보호 모델은 합법적인 봇과 악성 봇을 구별하도록 발전할 것입니다. AI 게이트웨이는 위임된 인증, 행동 분석, 최소 권한 적용과 같은 고급 정책을 통합해야 하며, 이는 제로 트러스트 원칙에서 차용해야 합니다. 여기에는 위험 인식 정책과 향상된 가시성이 포함되어 AI 기반 보안 침해가 강력한 거버넌스를 유지하면서 효과적으로 억제되도록 합니다.

 

가장 시급한 것은 데이터(침출, 유출)와 관련된 기존 보안 문제뿐만 아니라 환각 및 편견과 관련된 윤리적 문제를 해결할 수 있는 능력입니다. 후자가 이 주제에 대한 거의 모든 설문 조사에서 상당한 위험으로 평가되는 것을 보고 놀라는 사람은 없습니다.

 

켄 아로라, F5 Distinguished Engineer

 

2025년 기술 #5: 소규모 언어 모델

 

환각과 편견의 문제를 감안할 때 검색 증강 생성(RAG)과 소규모 언어 모델(SLM)의 사용이 증가하는 것을 무시하는 것은 생각할 수 없습니다. RAG는 생성 AI의 기본 아키텍처 패턴이 빠르게 되었습니다.

 

아직 검색 증강 생성(RAG)을 AI 전략에 통합하지 않은 조직은 특히 실시간 정보 검색 및 상황에 맞는 응답이 필요한 작업의 경우 데이터 정확도와 관련성이 크게 향상되지 않습니다. 그러나 생성 AI의 사용 사례가 확대됨에 따라 조직은 RAG만으로는 일부 문제를 해결할 수 없다는 것을 알게 되었습니다.

 

LLM의 한계가 커지고 있으며, 특히 도메인별 또는 조직별 지식을 다룰 때의 정밀도가 부족하여 소규모 언어 모델 채택이 가속화되고 있습니다. LLM은 일반 지식 응용 프로그램에서는 매우 강력하지만, 전문 분야에서 정확하고 섬세한 정보를 제공해야 할 때는 종종 실패합니다. 이러한 격차는 SLM이 빛을 발하는 부분인데, SLM은 특정 지식 영역에 맞게 조정되어 더욱 신뢰할 수 있고 집중적인 결과물을 제공할 수 있기 때문입니다. 또한 SLM은 전력 및 컴퓨팅 주기 측면에서 훨씬 적은 리소스를 필요로 하므로 모든 사용 사례에 대해 LLM의 방대한 기능이 필요하지 않은 기업에 더 비용 효율적인 솔루션이 됩니다.

 

현재 SLM은 산업별로 구분되는 경향이 있으며, 종종 의료 또는 법률과 같은 분야에서 교육을 받습니다. 이러한 모델은 더 좁은 도메인으로 제한되지만 비용과 복잡성 측면에서 LLM보다 교육 및 배포가 훨씬 더 실행 가능합니다. 점점 더 많은 조직이 전문화된 데이터 요구 사항과 더 잘 맞는 솔루션을 찾고 있기 때문입니다. SLM은 검색 증강 생성 방법만으로는 환각을 완전히 완화할 수 없는 상황에서 LLM을 대체할 것으로 예상됩니다. 시간이 지남에 따라 SLM은 높은 정확도와 효율성이 가장 중요한 사용 사례에서 점점 더 우세해져 조직에 LLM에 대한 보다 정확하고 리소스 효율적인 대안을 제공할 것으로 예상합니다.

 

Lori MacVittie, F5 Distinguished Engineer

 

미래를 내다보며: 변압기 너머

 

변압기 모델은 강력하지만 확장성, 메모리 사용 및 성능에 한계가 있으며, 특히 AI 모델의 크기가 커질수록 그렇습니다.

 

그 결과 새로운 패러다임이 등장하고 있습니다. 혁신적인 최적화 기술과 새로운 신경망 아키텍처를 융합하여 다양한 애플리케이션과 장치에서 AI 배포를 민주화할 것을 약속합니다.

 

AI 커뮤니티는 이미 신경망 설계에서 변압기 이후 혁신의 초기 징후를 목격하고 있습니다. 이러한 새로운 아키텍처는 현재 변압기 모델의 근본적인 한계를 해결하는 동시에 콘텐츠를 이해하고 생성하는 데 있어 뛰어난 역량을 유지하거나 개선하는 것을 목표로 합니다.

 

가장 유망한 발전 중 하나는 고도로 최적화된 모델, 특히 1비트 대용량 언어 모델의 등장입니다. 이러한 혁신은 정밀도가 낮아졌음에도 불구하고 모델 성능을 유지하면서 메모리 요구 사항과 계산 오버헤드를 극적으로 줄입니다.

 

이러한 발전의 영향은 AI 생태계에 확산될 것입니다. 한때 상당한 계산 리소스와 메모리를 요구했던 모델은 훨씬 낮은 오버헤드로 효율적으로 작동할 것입니다. 이러한 최적화는 컴퓨팅 아키텍처의 변화를 촉발하여 GPU가 잠재적으로 학습 및 미세 조정 작업에 특화되고 CPU가 새로운 기능으로 추론 워크로드를 처리할 수 있게 됩니다.

 

이러한 변화는 민주화와 지속 가능성에 초점을 맞춘 두 번째 효과의 물결을 촉진할 것입니다. 리소스 요구 사항이 감소함에 따라 다양한 애플리케이션과 장치에서 AI 배포에 액세스할 수 있게 됩니다. 또한 인프라 비용이 크게 감소하여 이전에는 실행 불가능했던 엣지 컴퓨팅 기능이 가능해집니다. 동시에 계산 강도가 감소하여 에너지 소비가 감소하고 탄소 발자국이 줄어들어 환경적 이점이 생겨 AI 운영이 더욱 지속 가능해집니다.

 

이러한 발전은 엣지 장치에서 전례 없는 기능, 실시간 처리 개선, 산업 전반에 걸친 비용 효율적인 AI 통합을 가능하게 합니다. 컴퓨팅 환경은 특정 워크로드에 최적화된 다양한 처리 아키텍처를 결합하는 하이브리드 솔루션으로 진화하여 보다 효율적이고 다재다능한 AI 인프라를 구축할 것입니다.

 

쿠날 아난드, 최고 혁신 책임자 

 

본 문서의 원문 링크

 

 

 

 

 

반응형

더욱 좋은 정보를 제공하겠습니다.~ ^^