LLM

8개의 포스트

LLMPrivacy Policy

LLM을 활용한 대화형 개인정보 처리방침 평가 도구, PRISMe

웹사이트의 개인정보 처리방침은 복잡하고 길어서 사용자가 이해하기 어렵습니다. 이 문제를 해결하기 위해, 본 논문에서는 Large Language Model (LLM)을 기반으로 한 브라우저 확장 프로그램 PRISMe를 개발하고, 22명의 사용자를 대상으로 질적 연구를 수행했습니다. PRISMe는 대시보드와 LLM 채팅 기능을 통해 사용자가 웹서핑 중에도 개인정보 처리방침의 핵심 내용을 쉽게 파악하도록 돕습니다. 연구 결과, 이 도구는 사용자의 개인정보 보호 인식을 높이고 이해도를 향상시키는 데 효과적이었으나, 도구에 대한 신뢰를 구축하는 데에는 몇 가지 과제가 있음을 발견했습니다. 논문 제목: "You don't need a university degree to comprehend data protection this way": LLM-Powered Interactive Privacy Policy Assessment

LLMPrivacy

CLEAR: LLM 애플리케이션의 개인정보 위험을 분석하고 경고하는 문맥 인식 도우미

LLM(Large Language Models) 애플리케이션은 새로운 개인정보 위험을 야기하지만, 사용자는 이를 잘 알지 못합니다. 이 논문은 **CLEAR**라는 'just-in-time 문맥 인식 도우미'를 제안합니다. CLEAR는 사용자가 ChatGPT나 Gemini 플러그인 등에서 민감한 정보를 입력할 때, 실시간으로 이를 감지하고 관련 개인정보 처리 방침 요약 및 잠재적 위험을 알려줍니다. 연구 결과, CLEAR는 사용자의 개인정보 위험 인식을 크게 향상시켰습니다. 논문 제목: CLEAR: Towards Contextual LLM-Empowered Privacy Policy Analysis and Risk Generation for Large Language Model Applications

Public Sector AILLM

AI 챗봇을 활용한 공중 보건 모니터링: 공공기관의 기대와 현실

본 연구는 사회적으로 고립된 개인을 모니터링하는 데 사용되는 LLM 기반 챗봇 CareCall 사례를 통해 공공 기관의 기대와 현실을 탐구합니다. AI 챗봇이 공공 서비스의 범위를 넓히는 데는 도움이 되었지만, 불충분한 자원과 사용자 참여 중단 처리와 같은 새로운 노동 수요로 인해 일선 작업자들의 부담이 가중되었습니다. 이 논문은 LLM 기반 챗봇 도입이 의사 결정자의 articulation work를 복잡하게 만들고 일선 작업자에게 추가적인 maintenance work를 부과하는 방식을 논의합니다. 논문 제목: Understanding Public Agencies Expectations and Realities of AI-Driven Chatbots for Public Health Monitoring

Emergent AbilitiesLLM

대규모 언어 모델의 창발적 능력 (Emergent Abilities)

이 논문은 대규모 언어 모델(Large Language Models)의 스케일을 키울 때 예측 가능하게 성능이 향상되는 현상과는 달리, 특정 규모에 도달했을 때 갑자기 나타나는 "창발적 능력(Emergent Abilities)"이라는 예측 불가능한 현상을 다룹니다. 창발적 능력이란 작은 모델에서는 보이지 않다가 일정 임계점을 넘는 큰 모델에서만 발현되는 능력으로, 이는 단순한 성능 외삽(extrapolation)으로는 예측할 수 없습니다. 본 논문은 few-shot prompting, chain-of-thought prompting 등 다양한 태스크에서 이러한 창발적 능력이 어떻게 나타나는지 여러 사례를 통해 보여주며, 모델 스케일링이 가져오는 질적 변화의 중요성을 강조합니다. 논문 제목: Emergent Abilities of Large Language Models

Tree of ThoughtsLLM

Tree of Thoughts (ToT): 대규모 언어 모델의 신중한 문제 해결

Tree of Thoughts (ToT)는 기존의 Chain of Thought (CoT) 접근법을 일반화하여, LLM이 단일 경로가 아닌 여러 추론 경로를 동시에 탐색하도록 하는 새로운 프레임워크입니다. ToT는 생각을 트리 형태로 구성하여 LLM이 다양한 중간 단계를 생성하고, 각 선택을 자체적으로 평가하며, 필요에 따라 전진하거나 후퇴하는 신중한 의사결정을 내릴 수 있게 합니다. 이 방법을 통해 Game of 24, Creative Writing 등 복잡한 문제 해결 능력에서 GPT-4의 성능을 크게 향상시켰습니다. 논문 제목: Tree of Thoughts: Deliberate Problem Solving with Large Language Models

Foundation ModelLLM

LLaMA 3: Meta의 새로운 파운데이션 모델

LLaMA 3는 다국어, 코딩, 추론, 도구 사용을 기본적으로 지원하는 새로운 파운데이션 모델 시리즈입니다. 가장 큰 405B 파라미터 모델은 최대 128K 토큰의 컨텍스트 윈도우를 가지며, GPT-4와 같은 선도적인 언어 모델과 유사한 성능을 제공합니다. 이 논문은 LLaMA 3의 광범위한 경험적 평가를 제시하며, 이미지, 비디오, 음성 기능을 통합하기 위한 compositional 접근 방식에 대한 실험 결과도 포함합니다. 논문 제목: The Llama 3 Herd of Models

Speech AILLM

SpeechGPT: 내재된 크로스모달 대화 능력을 갖춘 대규모 언어 모델

SpeechGPT는 다중 모달 콘텐츠를 인식하고 생성할 수 있는 내재된 크로스모달 대화 능력을 갖춘 대규모 언어 모델입니다. 이 모델은 기존의 캐스케이드 방식을 벗어나 이산적인 음성 표현을 활용하여 모달 간 지식 전달을 가능하게 합니다. 대규모 크로스모달 음성 지시 데이터셋인 SpeechInstruct를 구축하고, 3단계 학습 전략(모달리티 적응 사전학습, 크로스모달 지시 미세조정, Chain-of-Modality 지시 미세조정)을 통해 학습되었습니다. 논문 제목: SpeechGPT: Empowering Large Language Models with Intrinsic Cross-Modal Conversational Abilities

MLLMLLM

멀티모달 대규모 언어 모델(MLLM)의 모든 것: 최신 연구 동향 총정리

최근 GPT-4V와 같은 Multimodal Large Language Model(MLLM)의 최신 연구 동향을 종합적으로 살펴봅니다. 본 논문은 MLLM의 기본 개념, 아키텍처, 학습 전략, 평가 방법을 다루고, Multimodal ICL (M-ICL), Multimodal CoT (M-CoT)와 같은 확장 기술과 멀티모달 환각 현상 및 해결 과제를 논의합니다. 논문 제목: A Survey on Multimodal Large Language Models