오라클, 히트웨이브 생성형AI 발표… 업계 최초 인-데이터베이스 LLM 등 저장소 지원
  • 최종윤 기자
  • 승인 2024.07.02 10:47
  • 댓글 0
이 기사를 공유합니다

데이터 이동이나 추가 비용없이 생성형 AI 애플리케이션 구축 가능

[인더스트리뉴스 최종윤 기자] 오라클이 업계 최초 인-데이터베이스(in-database) 거대언어모델(LLM), 자동화된 인-데이터베이스 벡터 저장소, 확장 벡터 처리 및 비정형 콘텐츠 기반의 맥락화된 자연어 대화 기능을 제공하는 히트웨이브 생성형AI(HeatWave GenAI)를 발표했다.

오라클이 히트웨이브 생성형AI(HeatWave GenAI)를 발표했다. [사진=오라클]

히트웨이브 생성형 AI는 AI 전문가가 아니더라도 별도 벡터 데이터베이스로의 데이터 이동없이 생성형 AI의 효과를 엔터프라이즈 데이터에 구현할 수 있도록 지원한다. 히트웨이브 생성형AI는 히트웨이브 고객이라면 오라클 클라우드 리전과 오라클 클라우드 인프라스트럭처 전용 리전(Oracle Cloud Infrastructure(OCI) Dedicated Region) 및 여타 주요 클라우드 서비스 전반에서 추가 비용 없이 즉시 이용 가능하다.

히트웨이브 생성형AI는 개발자가 내장형 임베딩 모델을 사용해 단일 SQL 명령어로 기업의 비정형 콘텐츠를 위한 벡터 저장소를 생성할 수 있게 해 준다. 사용자는 인-데이터베이스 LLM, 혹은 외부 LLM을 사용해 단일 동작으로 자연어 검색을 수행할 수 있다.

데이터는 데이터베이스 내에서 안전하게 유지되며 히트웨이브의 뛰어난 확장성과 성능 덕분에 GPU를 프로비저닝할 필요도 없다. 개발자들은 결과적으로 애플리케이션의 복잡성을 최소화하는 동시에 성능 및 데이터 보안을 강화하고, 비용을 절감할 수 있다.

오라클 에드워드 스크리븐(Edward Screven) 최고기업아키텍트는 “히트웨이브 기술의 혁신은 놀라운 속도로 이어지고 있다”며, “히트웨이브 사용자들은 이제 직관적인 방식으로 기업 데이터를 활용해 비즈니스에 필요한 정확한 답변을 신속하게 얻을 수 있다”고 말했다.

스마터D(SmarterD)의 비제이 선다(Vijay Sundhar) 최고경영자는 “히트웨이브 생성형AI 덕분에 생성형 AI의 활용이 엄청나게 쉬워졌다”면서, “인-데이터베이스 LLM과 인-데이터베이스 벡터 생성 기능 덕분에 애플리케이션 복잡성이 크게 줄었고, 추론(inference) 작업 시 지연은 예측 범위내로 관리가 가능하며, 무엇보다 LLM을 활용하고 임베딩을 생성하는 데 추가 비용이 들지 않는다”고 말했다.

새롭게 소개된 자동화 및 내장형 생성형AI 기능은 아래와 같다.

‘인-데이터베이스 LLM’은 생성형 AI 애플리케이션의 개발을 간소화하고, 개발 비용을 절감한다. 고객은 외부 LLM 선정 및 통합의 복잡성 없이도 생성형 AI의 이점을 누릴 수 있고, 다양한 클라우드 제공업체 데이터센터의 LLM 가용성에 대해 걱정할 필요도 없다.

인-데이터베이스 LLM은 고객이 히트웨이브 벡터 저장소(HeatWave Vector Store)를 활용해 데이터 검색, 콘텐츠 생성 및 요약, 검색증강생성(RAG) 등을 수행할 수 있게 해 준다. 또한 고객은 오토ML과 같은 기타 내장형 히트웨이브 기능을 생성형 AI와 결합해 보다 풍성한 애플리케이션을 구축할 수 있다. 히트웨이브 생성형AI는 OCI 생성형 AI 서비스(OCI Generative AI Service)에도 통합돼 있어, 고객은 최고의 LLM 제공업체들이 제공하는 사전 훈련된 기본 모델을 활용할 수 있다.

‘자동화된 인-데이터베이스 벡터 저장소’는 고객이 데이터를 별도의 벡터 데이터베이스로 이동하거나, AI 전문성을 갖추지 않고도 생성형 AI를 자사의 비즈니스 문서와 함께 사용할 수 있도록 지원한다.

객체 저장소에서의 문서 검색, 파싱(parsing), 병렬화되고 최적화된 임베딩 생성, 벡터 저장소에 대한 임베딩 삽입 등 벡터 저장소 및 벡터 임베딩 생성을 위한 모든 과정이 자동화돼 있으며, 데이터베이스 내에서 수행되므로 히트웨이브 벡터 저장소의 효율성과 쉬운 활용을 보장한다.

RAG용 벡터 저장소는 이 모델들이 보다 정확하고 유관한 답변 제공을 위해 적절한 맥락을 바탕으로 전문 데이터를 검색할 수 있도록 하여 LLM의 환각 문제 해결에도 도움을 준다. 이외에도 ‘확장 벡터 처리’, ‘히트웨이브 챗(HeatWave Chat)’ 기능이 탑재돼 있다.

벡터 저장소 생성 및 벡터 처리 벤치마크

히트웨이브 생성형AI는 아마존 베드록(Amazon Bedrock)의 지식 기반을 사용할 때보다 PDF, PPT, WORD, HTML 형식 문서용 벡터 저장소 생성 속도는 23배 빠르며, 비용은 1/4 수준으로 저렴하다.

1.6GB에서 300GB 크기의 테이블에서 다양한 유사성 검색 쿼리를 사용해 이루어진 서드파티 벤치마크를 통해 입증된 바와 같이, 히트웨이브 생성형AI는 스노우플레이크 대비 30배 빠른 속도와 25% 저렴한 비용, 데이터브릭스 대비 15배 빠른 속도와 85% 저렴한 비용, 구글 빅쿼리 대비 18배 빠른 속도와 60% 저렴한 비용을 자랑한다.

별도의 벤치마크에 따르면, pg벡터(pgvector)를 사용하는 아마존 오로라 포스트그레SQL (Amazon Aurora PostgreSQL)의 벡터 인덱스는 정확도가 떨어져 오답을 산출할 가능성이 있는 것으로 나타났다.

반면 히트웨이브의 유사성 검색 처리는 항상 정확한 결과를 제공하고, 예측 범위 내의 응답 시간을 보장했으며, 유사한 메모리 속도로 수행돼 동일한 수의 코어를 사용하는 오로라(Aurora) 대비 10배에서 80배 빠른 속도를 제공한다.


관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.