세계 최고 권위 자연어처리(NLP)학회인 ‘EMNLP 2024’에서 네이버의 검색 기술 관련 정규 논문이 채택됐다.
올해로 28회차를 맞은 EMNLP는 NAACL, ACL과 함께 자연어처리 분야에서 글로벌 최고 AI 학회로 꼽힌다. 특히 AI 번역, 챗봇, 기계 독해 등 언어 데이터 기반 자연어처리 접근법에 대한 다양한 연구를 다룬다. EMNLP 2024는 다음달 12일부터 16일까지 미국 플로리다에서 진행된다. 네이버는 이 자리에서 검색 기술 관련 연구를 포함해 채택된 논문 4건을 발표할 예정이다.
네이버는 이번 연구 성과를 실제 네이버 검색 서비스에 직간접적으로 활용해 검색 품질과 사용성을 높이는 등 서비스 가치 창출과 연구의 실효성 측면에서 의미를 더했다.
먼저, 네이버 생성형 AI 검색 서비스인 ‘큐(CUE):‘에 적용된 알고리즘에 대한 연구 논문이 채택됐다. 해당 연구는 SLM(소형 언어 모델)을 사용하는 모듈식 접근법으로 유해 질의를 탐지하고 적절한 답변을 제공할 수 있는 학습 메커니즘을 다룬 연구다. 네이버는 연구 성과를 지난해 11월 큐:에 적용해 AI 안정성을 강화하는 데 활용하고 있다. 예를 들어, 범죄·유해 등 불법정보나, 저작권법 및 사생활 침해, 개인정보유출, 욕설·비속어 등과 관련한 질의를 판별해 무분별한 답변이 제공되지 않도록 안전한 생성형 AI 검색 환경을 구축하고 있다. 네이버는 향후 해당 기술을 활용해 질의와 검색 결과의 적합성 판단력을 높여 고품질 콘텐츠 노출을 확대하고, 신뢰도 높은 출처의 답변을 상단에 노출할 수 있도록 검색 서비스 전반의 품질을 강화하는데 활용할 예정이다.
네이버는 또 통합검색 결과 상단에 검색어와 연관된 주요 정보를 요약해 제공하는 ‘지식스니펫’ 서비스에서 정보를 추출할 때, 텍스트뿐 아니라 리스트, 테이블 등 복잡한 형태의 스니펫(정보)까지 AI가 효과적으로 처리하는 기술을 제안했다. 해당 기술은 내년 상반기 지식스니펫 적용을 목표로 하고 있으며, 길고 복잡한 검색어에도 정확히 답변하는 비율을 높여 사용자가 원하는 정보를 빠르게 확인할 수 있도록 성능을 높이는데 기여할 것으로 예상된다.
아울러, LLM(초거대 생성형 언어모델)의 문서 랭킹 능력을 sLLM(작은 생성형 언어모델)에 이식시켜 검색 서비스에 적용하는 방법에 관한 논문도 채택됐다. 사용자가 원하는 결과를 실시간으로 제공해야 하는 검색 서비스에서 속도 저하 없이도 LLM 만큼 품질을 낼 수 있는 기술을 고안해 제안한 것이다. 네이버는 논문에서 소개된 모델을 지난 6월 통합검색 서비스에 적용해 길고 복잡한 검색어 맥락에 더 적합한 문서를 결과로 제공할 수 있게 됐고, 기술 적용 후 문서 클릭률(CTR)이 4.3%, 체류시간이 3% 증가하는 등의 효과를 거뒀다.
이 밖에도, 네이버는 올해 EMNLP와 더불어 세계 최고 자연어처리 학회로 꼽히는 NAACL(1건), 세계 최고 AI 학회 CVPR(2건)을 포함해 Information Sciences(1건), LREC-COLING(1건), SIGIR/LLM4Eval(1건) 등 세계 유수 AI 학회에 검색 기술 관련 논문을 등재했다. 올해로 36회를 맞이한 국내 최고 권위의 HCLT(한글 및 한국어 정보처리 학술대회)에서도 7개 논문이 채택됐고, 이 중 2건은 우수 논문으로 선정됐다.
김광현 네이버 검색·데이터 플랫폼 부문장은 “국내 검색 시장을 선도해온 네이버의 검색 기술을 세계 무대에서도 인정받은 것"이라며 “앞으로도 개선된 검색 정확도와 생성형 AI 실험을 바탕으로 사용자들에게 최적화된 검색 결과를 제공할 수 있는 경쟁력 있는 검색 서비스를 지속 선보일 것"이라고 말했다.