2024/08 3

2024 핵서울 참가 후기

주말을 이용해서 8월 24일 ~ 25일 이틀간 글로벌 해커톤 대회인 핵서울에 참가했다!사실 해커톤을 하는걸 몰랐는데 주변 개발자 동료의 초대로 함께하게 되었다.단순한 무박 해커톤은 전에도 해본적이 있었지만 이번에는 무려 아침부터 저녁까지 하는 해커톤… 뭔가 심상치 않기도 하고 참가신청하려고 보니까 막 자기 컴퓨터 모니터 들고온 외국인이랑 배낭 들고온 사람이랑 많이 보여서 두려웠다.   우리는 뒤쪽 좌석이었는데 사람들 되게 많더라...그리고 저기 큰 플라스틱 가방 들고온사람들은 컴퓨터랑 모니터 막 들고 개발함 발표 전 및 팀빌딩우리는 총 3명으로 구성되어 있었는데백엔드 및 블록체인 개발자(미들급인데 일단 본인은 대학생이라고 주장함) 인데 프론트엔드 개발자 1명백엔드 개발자 2명이렇게 있었다.그래서 아 이거..

기타/일상 2024.08.26

RAG 이론 정리와 활용

chat APIAPI를 이용해 사용자가 모델 제어 가능Messages(주요입력)System : InstructionUser : 사용 유저Assistant : 동작 (From System)Request Bodymax_tokens : 최대 토큰 수 설정가능temperature : 얼마나 정적인 답을 할지(창의성)top_p : 확률 기반으로 예측 단어(토큰) 제한참고로 temperature 이랑 top_p 동시 조정은 추천되지 않는다.참고로 요청할 때에 Instruction 을 주면 원하는 응답이 나타나지 않을 수 있다.ex) prompt 요청에서 JSON으로 대답하쇼 하면 JSON이 아닐 수 있다는것.response_format 에서 {”type” : “json_object”} 이렇게 요청하면 항상 JSON..

이론 정리 2024.08.11

AI 기본 이론정리

먼저 요즘 자주 쓰이는 AI는 chatGPT나 claude 같은 애들이 있다.이런 것들을 LLM 이라 하는데, Large Language Model 이라고 대규모 언어 모델이라는 뜻이다.그러면 반대로 소규모도 있겠네? 하면 있다.SLM 이라고 하는데, 라마3가 대표적이다.AI 분류LLM대규모 언어 모델로, chatGPT나 gemini, claude 같은 애들이 대표적이다.데이터 갯수랑 성능의 관계가 선형이라는 연구 결과가 있다. 그렇기 때문에 모델의 크기를 기우는 데에 주력하는 방식이다.SLM소규모 언어 모델이다. 라마3 같은 애들이 있다.근데 보통 모델을 막 돌리는게 그리 쉬운거는 아니다. 그래서 SLM 의 수요와 연구도 활발하게 이루어지는 중이다. 작은 모델로 그나마 좋은 성능을 내는 방식이다.데이터..

이론 정리 2024.08.10