본문으로 건너뛰기
피드

LLM과 RAG 한계를 넘기 위한 온톨로지 웨비나 열린다

ai-ml 약 5분

토크아이티가 기업 AI에서 온톨로지를 어떻게 구축하고 확산할지 다루는 웨비나를 진행한다. LLM과 RAG만으로 해결하기 어려운 기업 데이터 파편화, 레거시 시스템 연계, ROI 문제를 FAQ 형식으로 다룰 예정이다.

  • 1

    생성형 AI 확산으로 기업 데이터 파편화와 구조화 문제가 다시 부각됨

  • 2

    온톨로지를 LLM·RAG 이후 기업 AI 인프라의 상위 레이어로 조명

  • 3

    ERP, SCM, PLM 같은 레거시 시스템 연계 전략을 다룰 예정

  • 4

    플랜트, 제조, 금융, 공급망 사례와 ROI 논의가 포함됨

  • 생성형 AI 도입이 늘면서 기업 데이터 파편화 문제가 다시 올라오고 있음

    • LLM과 RAG를 붙였는데도 ERP, SCM, PLM 같은 레거시 시스템의 데이터 의미가 안 맞는 경우가 많음
    • 부서마다 같은 말을 다르게 쓰고, 다른 말을 같은 의미로 쓰면 AI가 답을 그럴듯하게 만들어도 업무에서는 바로 막힘
    • 그래서 온톨로지를 기업 AI의 핵심 인프라로 다시 보자는 흐름이 커지고 있음
  • 토크아이티가 5월 13일 오후 2시부터 3시까지 온톨로지 웨비나를 진행함

    • 주제는 “온톨로지 프로젝트 FAQ Top 10 핵심 정리”임
    • 온톨로지 전문 토크 시리즈의 두 번째 에피소드로, 인포시즈와 PwC컨설팅이 현장에서 자주 받은 질문을 FAQ 형식으로 정리한다고 함
    • 참가비는 무료이고 토크아이티 홈페이지에서 사전 등록할 수 있음
  • 웨비나는 크게 4개 주제를 다룸

    • 첫 번째는 왜 온톨로지가 다시 기업 AI의 핵심이 됐는지임. 생성형 AI와 온톨로지의 관계, 그래프 DB와의 차이, 최신 동향을 짚음
    • 두 번째는 구축과 확산 전략임. 도메인 지식, 데이터 구조, 시스템, 조직 합의를 어떻게 묶을지 다룸
    • 세 번째는 적용 사례와 ROI임. 플랜트, 제조, 금융, SCM에서 데이터 통합과 의사결정 지원, 반복 업무 자동화 효과를 본다고 함
    • 네 번째는 향후 전망임. 디지털 트윈의 핵심 구조이자 데이터 중심 기업의 필수 인프라로 확장되는 흐름을 다룸

ℹ️참고

> 이 행사의 핵심 타깃은 “RAG까지 해봤는데 왜 우리 회사 데이터는 아직도 안 맞지?”라고 느끼는 조직임. 모델보다 데이터 의미 체계가 먼저 막히는 케이스를 정면으로 다룸.

  • 대상 독자는 꽤 명확함

    • AI·데이터 전략을 맡는 기업 임원과 리더
    • LLM·RAG 도입 이후 한계를 체감한 실무 책임자
    • 데이터·AI 기반 업무 혁신을 추진하는 기획·디지털 전환 조직
    • ERP, SCM, PLM 같은 기존 시스템 연계 고민이 큰 현업·IT 책임자
  • 게스트도 기업 데이터 프로젝트 쪽 경력이 있는 인물들임

    • 인포시즈 탁정수 대표는 IBM Security 본부장과 IBM Smart Biz Team Lead를 지냈고, 삼성전자·SK텔레콤·금융권 AI 프로젝트 경험이 있다고 소개됨
    • PwC컨설팅 성윤호 파트너는 하이테크, 중공업, 제조업 데이터 혁신 프로젝트를 이끌었고, 비즈니스 객체 관계를 정의하는 온톨로지 모델링 전략을 다뤄왔다고 함

기술 맥락

  • 이 기사에서 중요한 선택은 LLM이나 RAG를 더 붙일지, 아니면 기업 데이터의 의미 구조를 먼저 정리할지예요. 왜냐하면 검색할 문서가 많아도 용어와 관계가 엉켜 있으면 모델은 그럴듯하지만 업무적으로 틀린 답을 내기 쉽거든요.

  • 온톨로지는 데이터베이스를 하나 더 만드는 얘기가 아니에요. 제품, 설비, 고객, 계약, 공급망 같은 업무 객체가 서로 어떤 관계인지 정의해서 AI와 사람이 같은 의미 체계 위에서 일하게 만드는 쪽에 가까워요.

  • ERP, SCM, PLM 연계가 반복해서 나오는 이유도 여기에 있어요. 기업의 핵심 데이터는 이미 여러 레거시 시스템에 흩어져 있고, 각 시스템은 자기 문법으로 데이터를 관리하거든요. 온톨로지는 이 위에 공통 의미 레이어를 얹으려는 접근이에요.

  • 그래서 ROI도 단순히 챗봇 답변 품질로만 보면 부족해요. 데이터 통합 시간 단축, 반복 업무 자동화, 의사결정 지원처럼 실제 업무 흐름이 얼마나 줄어드는지가 온톨로지 프로젝트의 성패를 가를 가능성이 커요.

행사 소개 기사지만, 주제 자체는 지금 기업 AI 도입 현장에서 꽤 현실적인 문제를 찌른다. RAG를 붙였는데도 데이터 의미가 안 맞고 부서별 용어가 충돌하는 팀이라면 온톨로지 논의를 피하기 어렵다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.