Search

MODUCON 2024 회고록

대분류
기타
소분류
컨퍼런스 기록
유형
모두의 연구소
주요 레퍼런스
https://medium.com/@rohanbalkondekar/flow-engineering-is-all-you-need-9046a5e7351d
https://news.hada.io/topic?id=15496
https://arxiv.org/pdf/2402.03620
https://div.beehiiv.com/p/flow-engineering-need
https://www.prompthub.us/blog/prompt-engineering-with-reasoning-models
https://blog.rightbrain.co.kr/?p=5832
https://analyticsindiamag.com/infographics/moa-vs-moe-for-large-language-modes/
https://arxiv.org/pdf/2405.06087
https://arxiv.org/abs/2410.20739
https://www.nvidia.com/ko-kr/deep-learning-ai/software/rapids/
https://blogs.nvidia.co.kr/blog/what-are-foundation-models/
최종 편집 일시
2024/12/19 00:06
생성 일시
2024/12/15 02:44
14 more properties

모두의 연구소

모두의 연구소 로고

뭘 하는 곳인가

기업이 원하는 실무형 고급 인재를 양성하는 커뮤니티 기반의 성장형 연구 및 교육 플랫폼
인공지능(AI), 데이터 과학(Computer Science), 프로그래밍 등 다양한 분야에서 연구와 학습을 할 수 있도록 협업하는 커뮤니티.
정해진 교육기관이 아니라, 누구나 연구원으로 참여해 자유롭게 배우고 연구할 수 있는 환경을 제공한다
누구나 자유롭게 연구하고 학습할 수 있는 환경을 조성하여, 부트캠프, 국비지원 교육, 기업 맞춤형 교육 등을 통해 실무 중심의 학습 경험을 제공한다.

핵심가치

문화

모두의연구소는 "Share Value, Grow Together"를 미션으로 삼아, 지식과 경험을 공유하며 함께 성장하는 문화를 지향한다.
홈페이지에 나와있는 가치관: ‘함께 지식을 공유하고 성장하는 연구 문화를 전파하는 것’
이를 위해 내부와 외부의 문화가 동일하도록 노력하며, 열정, 상생, 꾸준함을 강조한다.
또한, 성과보다는 진정성을 우선시하며, 투명한 소통과 신뢰를 바탕으로 한 커뮤니티를 구축하고자 한다.

핵심가치

상생
신뢰
열정
자기주도
정보 공유
문화 전파

서비스

아이펠(AIFFEL)
모두의연구소의 AI 교육 플랫폼
커뮤니티
지도 교수와 상대평가가 없는, 누구에게나 열린 연구 플랫폼
동료 학습과 열린 연구로 함께 지식과 경험을 나누며 성장하는 선순환 생태계를 형성
오름캠프
2023년 10월에 처음 런칭된 커뮤니티 기반의 성장형 교육 & 전문성 있는 교육을 만들고자 하는 SW 교육 플랫폼
오름클래스
AI/Digital 기술을 활용해 현업(직무)의 고충점을 해결하는 온라인 강의 플랫폼입니다.
오름Biz
오름Biz는 기업을 대상으로 운영하고 있는 기업 맞춤형 AI/DX 서비스 플랫폼 입니다.

컨퍼런스

참가자 등록

참가자 등록은 모두콘 공식 홈페이지에서 진행하였다.
양식은 구글 폼으로 작성하였으며 워크샵과 네트워킹 같은 참여형 프로그램에선 별도로 신청하여 이후 추첨되었다. (필자는 뽑히지 않아 이후 현장에서 선착순 신청으로 참여하였다.)
그럼 이후에 이메일로 QR코드가 날라온다.

행사

모두콘(MODUCON)은 이번에 처음 참여했는데 생각보다 너무 깔끔하게 운영되어서 정말 깜짝 놀랐다.
스태프 분들이 많았는데 다들 친절하시고 활발하셔서 부스를 돌아다니며 쉽게 안내받고 체험할 수 있었다.
카드 체험 부스
Time table 및 참여했던 세션
사진은 못 찍었지만 점심으로 크라이스 치즈버거랑 물을 제공받았다. 개인적으로 좋아하는 버거 회사인데 정말 맛있게 먹었다.

브랜드 각인

이번 컨퍼런스를 통해 확실한 건 모두의 연구소가 어떤 곳인지, 어떤 서비스를 하고 있는지 확실하게 알 수 있었고 관심도가 커졌다는 것이다.
기본적으로 받은 선물들은 우선 지원사 중에 카카오가 있어서 그런지 카카오 선물이 많았고 (굉장히 귀여운) 사진에는 없지만 달력도 같이 받았다.
추첨을 통해 친필 싸인 저서, 티셔츠 마그넷 클립, 스티커 등을 경품으로 받을 수 있었다. (저서는 아쉽게도 당첨되지 못했다.)
럭키드로우도 진행했었는데 여기선 뭐 항상 뽑기만 하면 꽝이 걸리는 나는 그러려니 했고, 1등상은 에어팟 맥스였다. (위 추첨도 전부 다 꼴등상)
필자가 받은 선물 내역

세션

각 세션마다 연사자분들에게 너무 많은 것을 배울 수 있었는데, 발표 내용 뿐만 아니라 칼 같은 발표 시간과 정보 주입력, 효과적인 PPT 구성 같이 발표 면에서도 배울 수 있었다.
이 발표에 대해 중요하게 생각했던 이유는 타 컨퍼런스의 경우, 시간을 오버하거나 발표 구성이 잘 짜여지지 않는 경우가 있었다.
내가 들었던 세션에서는 연사자분들이 그때그때 시간을 체크해가며 유동적으로 템포를 조절하거나 주요 내용에 대해서 위주로 설명하는 등의 테크닉을 사용하여 각자 시간을 맞추려고 노력하시는 게 보이셨다.
NVIDIA 세션의 경우, 네트워킹이 이어져서 덕분에 아쉬웠던 짧은 QnA 시간을 커버할 수 있었다.
정말 멘토님에게 폭풍 질문 쇄도를 하며 많은 걸 알아가는 시간이였다.

AI Agent 팀과 LLM 오케스트레이션의 비밀

AI Agent 팀
LLM들끼리 협업하는 구조를 갖춘다.

Prompt Engineering

Reasoning Module
성능 향상 스냅샷
사람도 프로젝트를 진행할 때, 어떤 방법론으로 협업할 건지를 정하는 것처럼, LLM간의 협업도 어떤 방식으로 협업을 할지 의사 결정이 필요하다.
예시로, 에자일 방법론, 폭포수(Waterfall) 모델 등이 있다.
Self-Discover
사전에 다양한 추론 구조(Reasoning Structure)를 정의하고 이 중 적절한 추론 방식을 LLM이 선택하여 추론을 진행한다.
SELF-DISCOVER: Large Language Models Self-Compose Reasoning Structures -[Submitted on 6 Feb 2024]

Flow Engineering

여기서 Flow는 여러 에이전트가 환경과 서로 협력하고 상호 작용하여 작업을 완료하는 반복적 프로세스이다.
Flow Engineering은 작업을 더 작은 단계로 나누고 LLM이 답변을 스스로 정제하도록 촉구하여 신속한 엔지니어링을 향상 시켜 정확도를 높이고 더 나은 성과를 내는 과정이다.
MoE (Mixture of Experts): 병렬 구조
여러 전문가 모델(Experts) 중에서 일부만 선택적으로 활성화하여 학습과 추론을 수행하는 방식
MoA (Mixture of Agents): 직렬 구조
여러 에이전트(Agents)들이 순차적으로(직렬로) 협업하는 방식
각 에이전트는 특정 태스크를 해결하는 데 특화된 역할을 수행한다.

플로와이즈

LLM Ochestration Framework
프레임워크를 사용하지 않을 경우 기본적으로 노드가 30개 정도 되는데 이걸 50번 정도 직접 수정을 해야한다.
플로와이즈는 RAG부터 MultiAgent, MoA(Mixture of Agent)까지 기업을 위한 LLM 올인원 솔루션, 현재 기업의 로컬 환경에서 오픈소스 LLM 모델을 통해 Group-Reflection을 구현할 수 있는 독보적인 수단이다.
Group-Reflection: 팀이나 그룹이 함께 모여 특정 작업, 프로젝트, 경험 등에 대해 돌아보며 공동으로 성찰하는 과정
구현 예시 (RAG)
랭체인(LangChain) 등의 코드 구현을 통해 협업의 과정을 인위적으로 하드코딩하여 추가할 수 있으나, 이는 어디까지나 사람이 협업을 인위적으로 구성한 것 뿐이다.
언제 협업을 끝낼 지, 누구와 협업할지를 LLM 스스로 선택할 수 있어야 진정한 Group-Reflection이다.
사람과 LLM이 함께 작업하면, LLM끼리만 작업을 했을 때보다 성과가 더 안 좋아지기도 한다.
When combinations of humans and AI are useful last revised 29 Oct 2024
플로와이즈는 무한 루프를 막기 위해 최대횟수를 제한하고 스스로 의사결정을 할 수 있도록 지원한다.
이 부분에서 필자는 개인적으로 토큰 사용량 측면에서나 Supervisor로서의 역할을 어떻게 성능과 비용을 고려하여 개선할 것인지에 대한 문제를 제시한다.
플로와이즈의 목적
기존 문제 분석
사람이 생성한 텍스트 데이터를 학습한 LLM은 편향(Bias)성을 지닌다.
LLM의 정보를 통해 의사결정을 하는 사람도 편향(Bias)이 존재하기 때문에 다양한 측면을 고려할 수 있는 리서치 역량과 더불어 도입에 필요한 실무 역량이 필수적이다.
Gender Bias in LLM-generated Interview Responses last revised 28 Nov 2024
목적
위와 같은 문제를 해결하기 위해 사람을 대체하도록 LLM 올인원으로 대체하자.

모두의 연구소 NVIDIA 기술랩 세션

NVIDIA

NVIDIA는 GPU만 만드는 회사이다?
NVIDIA는 기존 반도체 시장 뿐 아니라 Application Frameworks와 상호 연결되어 있는 NVIDIA AI, Omniverse같은 Platform, Acceleration Libraries, System Software 등 다양한 분야로 확장하고 있다.
다양한 기술 스택과 교육
NVIDIA는 다양한 툴, 에코시스템을 통해 GPU를 효과적으로 사용하여 문제를 해결한다.

데이터 과학이란?

데이터 과학은 수학, 통계, 인공 지능, 컴퓨터 공학 분야의 방법과 기법을 결합하여 대량의 데이터를 분석하는 융합적 접근 방식이다.
wikimedia commons
단순 정량적 분석이 아닌 도구, 방법, 기술을 사용하는 지식을 결합하여 데이터에서 의미를 창출한다.
데이터로부터 알 수 있는 것들:
무슨 일이 일어났는지?
이 일이 왜 일어났는지?
앞으로 무슨 일이 더 일어날지?
이 결과를 가지고 무슨 일을 더 할 수 있을지?

손쉽게 달성하는 데이터 과학 가속화 - RAPIDS

CPU 기반 라이브러리들을 GPU 기반으로 변경하여 사용할 수 있게 해주는 라이브러리
CUDA 기반으로 작성되어 있다.
Machie Learning Life Cycle
Machine Learning 환경은 선형이 아니다.
일반적으로 우리는 ML(DL)을 선형적으로 생각한다.
크게 데이터 및 모델 탐색, 모델 학습 및 적용, 모델 배포 및 서비스로 바라볼 수 있다.
하지만, 배포된 모델로 부터 continual하게 learning한다면, 점점 더 나은 서비스를 만들 수 있다.
이 때 많은 경우 우리는 데이터 엔지니어링을 한다.
데이터를 탐색하고, 어떤 모델을 선정할지(Data Science)
선택한 모델을 활용하여 실제 DB로 부터 데이터를 학습하는 과정(Data Engineering)
배포된 모델로부터 사용자에게 결과를 돌려주거나 테스트 하는 과정(Data Engineering)
아파치 애로우(Apache Arrow) 인메모리 데이터 구조 기반으로 구현된 RAPIDS는 판다스(pandas), 사이킷런(scikit-learn)과 거의 동일한 파이썬 인터페이스를 제공한다.
코드를 전혀 변경하지 않고도 기존 라이브러리(Pandas 등)의 속도를 높이고 성능을 크게 향상시킨다.
Query Optimization
RAPIDS Accelerator를 사용하여 Query Optimization을 할 수 있다.
리드를 하면서 필터링까지 같이 해버림.
데이터 처리 진화 과정
HPC 환경에서 더 좋은 것 같다.
RAM에서 손해보는 연산을 할 수 밖에 없음
자체적으로 분석해서 같이할 수 있는 건 같이 해버린다.
gpu 카파빌리티 성능이 좋으면 당연히 좋아진다.
메시브한 데이터에서 효과가 좋다.
메모리를 management하는 라이브러리가 따로 있다.
colab, kaggle 환경에서도 지원하고 있음

병렬화와 추론 최적화

NVIDIA NLP Forge LAB
NLP 추론쪽으로 도움
Megatron, 병렬화
LLM 기반 오픈소스 서비스 개발
Code Assistant
Image Embedding 기반 Image Search
GPU 병렬화 기술 개론
Data Parallelism
배치별로 데이터를 쪼개서 각각의 노드로 보낸다.
Tensor Parallelism
모델안에 들어있는 파라미터를 쪼개서 각각의 GPU로 보낸다.
Column-wise
Row-wise
Pipeline Parallelism
Layer단위로 쪼개서 각각의 GPU로 보낸다.
플롭스를 계산 - 각각의 GPU가 얼마나 부동소수점 연산을 할 수 있냐.
향후 활동
NLP 추적, Pararel

Foundation Model

엄청난 양의 데이터로 학습된 대규모 딥러닝 모델
비지도 학습(unsupervised learning)을 통해 훈련된 AI 신경망
2021년 논문에서 연구자들은 파운데이션 모델이 다양한 용도로 사용되고 있다고 보고하였다.
연구자들과 일반인들이 머신러닝을 사용하는 방식을 획기적으로 바꾼 기술
→ 다양한 작업을 한 번에 처리할 수 있는 만능형 ML 모델
주로 label이 없는 데이터를 사용해 폭넓고 일반화된 지식을 학습한다.
이 모델은 청므부터 특정 작업을 위해 만들어진 것이 아니라, 여러 작업에서 활용될 수 있도록 기본 지식을 담고 있다.
이를 통해 언어 이해, 텍스트 및 이미지 생성, 음성 인식 같은 작업을 효율적이고 효과적으로 처리할 수 있다.
Stable Diffusion, ChatGPT-4o, Sora
특징
1.
다목적 활용 가능성
자연어 처리, 이미지 생성, 음성 인식 등 여러 분야에서 활용 가능
2.
간단한 데이터로 Fine-tuning
사전 학습된 모델이기 때문에 소량의 데이터로도 특정 작업에 맞게 빠르게 맞춤화가 가능
3.
강력한 초기 성능
대규모, 고품질 데이터를 바탕으로 학습해 초기 성능이 뛰어남

NVIDIA Foundation Model Lab

선정 이유
Foundation Model Application Task는 실무에서 성능이 안정적이고, 산업적 활용도와 수요가 높을 것으로 판단
연구 초점
Foundation Model 활용 및 최적화: GPU 비용은 줄이고 학습 시간이 적은 응용 연구에 집중