-
Agentic | AI 소프트웨어 엔지니어 DEVIKA(open-source)
...한 달? 두 달? 전 했던 실습을... 미루고 미루다 이제 올린다.. 그른디...그 사이 데빈이 오픈해버렸네? ;D ㅋㅋㅋ 먼저 결론?! Devin 뿐만아니라 Open Devin을 비롯해 DEVIKA는 단순히 AI 소프트웨어 엔지니어로 접근하면 앙된다. 핵심은 에이전트이다. 다양한 LLM들을 에이전틱하게 MOE할 수 있는 사례로 이해하고 실습하면서 본인의 위치에서의 활용 방안을 모색해야한다. DEVIKADevin(AI 소프트웨어 엔지니어) 공식 출시하기 전 나왔던 '오픈 소스'로 Devin과 같이 코드를 생성을 주력으로 하고 있다. 유사 모델로는 Open Devin이 있다.Devika is an Agentic AI Software Engineer that can understand high-l..
2024.05.01
-
LLM | Five Levels of Chunking( 스압 주의!)
먼저..RAG에 대한 기본적인 내용은 이전에 포스팅을 참고하면 좋을 것 같다. LLM | Langchain - 02 유형/단계별 RAG 실습실습 링크는 코랩 입니다. 기본 대화 준비, API KEY 발급가입, 키발급실습, GPT와 대화하기OpenAI - DocumentsLangchain - Langchain(LLM)_실습GPT 3, 3.5 비교매개변수 조절temperature : 0일관적 답변, 2매번 다른normalstory.tistory.com 1. 개요 Chunking Chunking은 고품질의 응답에 많은 영향을 미치는 중요한 과정으로써 텍스트를 관리를 쉽고, 명확하게 중요한 부분으로 나누는 과정으로 맥락의 효율적인 처리와 검색을 위해 사용된다. Chunking 전략의 변천사처음?에..
2024.05.01
-
LangChain | 한국어 llm 모델, LangServe, local ollama, NGROK 배포
llm 관련 다양한 프레임워크들이 있는데 대부분이 OpenAI API 에 의존하고 있다. 되도록 이를 피하는 예제를 위주로 실습 중인데 테디노트에서 관심있는 주요 항목들에 대한 실습 영상을 올려주셔서 관련 진행 내용을 포스팅해본다무료로 한국어🇰🇷 파인튜닝 모델 받아서 나만의 로컬 LLM 호스팅 하기(LangServe) + RAG 까지!! (학습 콘텐츠 출처: 테디노트)( 참고로 llm을 로컬 컴퓨터에 다운로드해서 손쉽게 쓸 수 있도록 도와주는 툴은 대표적인 방법은 크게 ollama, AnythingLLM, Lm studio 세가지 정도가 있는데 테디노트의 이번 예제는 올라마 ollama를 활용하고 있다. ) 실습 과정1. HuggingFace-Hub에서 한국어🇰🇷 파인튜닝 모델 받기1) 실습..
2024.04.26
-
LMStudio X AnythingLLM (feat. AutogenStudio )
로컬 LLM을 코드 베이스로 모델을 설치, 빌드, 배포하는 과정에 대한 전반적인 흐름을 살펴본 후, 노코드로도 진행 할 수 있는 다른 툴을 사용하면서 LLM 개발운영에 대한 전반적인 워크플로우를 알아보도록 한다LMStudio 소개 ollama와..
2024.04.19
-
북 | UX 리서치 플레이북 - 심층 인터뷰
UX 리서치 플레이북 - 심층 인터뷰 심층인터뷰는 궁극적으로 '인터뷰 기법'을 기반으로 하고 있다 인터뷰는 고객을 더 잘 이해하기 위한 기법으로 소개하고 있습니다. 그 이유로는 시험을 보듯 텍스트를 읽고 풀이하는 방식이 아닌 1:1로 서로 대화를 통해 진행되기 때문에 중간에 이해가 안되는 부분이 생기더라도 쉽게 설명할 수 있고 참가자가 대답에 몰입하는 과정에서 서로 예상하지 못했던 정보까지 얻을 수 있어 고객을 이해하기 위한 리서치 방법론으로 매우 유용하다.( 유저 인터뷰 교과서) 그리고 사용자 인터뷰는 진행을 다 마친 후에도 리서처의 기억 속에 상대방에 대한 존재감이 남아 있기 때문에 자연스럽게 ‘아! 이런 사용자라면 이렇게 생각하지 않을까?’와 같은 추론을 떠올리게 하는데, 이런 과정을 통해 사용자와..
2024.04.13
-
Perplexity Clone( LLocalSearch feat.SearXNG)
Perplexity Clone LLocalSearch라는 새로운 오픈 소스를 알게 되어 바로 찾아 지지고 볶아봤다! 왜냐면,, 이전에도 포스팅했던 바 있는 Perplexity를 클론할 수 있었기 때문이었다. 테마까지 동일한 인터페이스를 제공하고 ollama에 설치된 기본적인 LLM 목록을 기반으로 chat검색 기능을 제공한다. 역시 가장 매력적인 부분은 OpenAI 또는 Google API 키가 필요 없이도 원할하게 동작한다는 점이다. 더불어 GPU도 권장은 하지만 필수는 아니라는 점에서 실질적인 상용화 측면에서도 여러모로 많은 인사이트를 얻을 수 있었다. 참고로 하부 구조는 두 개의 Chain( 개인적으로 Agent로 해석된다)으로 구성되어 있다. 한글에 대한 답변도 잘해주고 있다. Sources: h..
2024.04.10
-
UX리서치플레이북 - | 6장, 리서치 기법 설계 - 책 밖, 다양한 방법론
UX리서치플레이북 | 리뷰 목차 6장 리서치 기법 설계 1) 선정 방법 2) 리서치 유형 👉 3) 책 밖, 다양한 방법론 앞서도 언급한 바 있듯이 개인적으로 이 책에서 이 장표( 6장 리서치 기법 설계)가 가장 얇아서 아쉬웠다. 지극히 개인적으로 실무에선 가장 필요했던 부분이라고 생각했기 때문이다. 여기저기 개별 기법에 대한 정보는 쉽게 찾을 수 있다. 아마 학교에서도 개별 방법에 대한 내용은 매우 심층적으로 다루고 관련 시험도 볼 테지만,,, 막상 각 기법들은 언제 어떻게 적용해야 좋은 지에 대한 부분은 매우 개인 또는 조직 주관적이고 해석의 여지가 많아 나와 같이 리서치가 전공이 아닌 이들에겐,, 뭔가 기준을 잡기도 어려웠다. 게다가 팀 내에서도 서로 다른 교재나 교수님께 바워서 서로 추구하고 선정하..
2024.04.08
-
UX리서치플레이북 | 6장, 리서치 기법 설계 - 리서치 유형
UX리서치플레이북 | 리뷰 목차 6장 리서치 기법 설계 1) 선정 방법 👉 2) 리서치 유형 3) 책 밖, 다양한 방법론 리서치 유형은 앞서 언급했던 바와 같이 데이터 수집의 방식과 데이터 성격으로 리서치 기법에 대한 유형을 나눌 수 있는데 먼저 데이터 수집방식에 따라 태도적 리서치와 행동적 리서치로 나뉠 수 있다. 태도적 리서치는 질문 What They Say을 통해 그들의 생각과 의견, 그리고 그 동기를 청취하는 방식이고, 행동적 리서치는 그들의 행동 What They Do을 관찰하는 방식이다. 대표적인 태도적 리서치 기법으로는 심층인터뷰 IDI indepth interview와 카드 소팅 Card Sorting이 있고 행동적 리서치 기법으로는 아이트레킹과 AB테스팅과 같은 기법이 있다 그리고 데이..
2024.04.08
-
UX리서치플레이북 | 6장, 리서치 기법 설계 - 선정 방법
UX리서치플레이북 | 리뷰 목차 6장 리서치 기법 설계 👉 1) 선정 방법 2) 리서치 유형 3) 책 밖, 다양한 방법론 한 주? 열흘? 전에.. 프롬디자이너 커뮤니티에서 진행한 UX 리서치 관련 북스터디에서 발표를 했다. 리서치 기법을 설계하는 부분의 내용이었는데 추후 실무에서도 유용할 것 같아 관련 내용들을 정리해서 포스팅으로 남겨본다. 먼저 6장 리서치 기법 설계하기 파트에서는 실무를 진행하면서, 언제 어떤 리서치 기법을 선택하는 것이 좋은지에 대해 안내하고 있다. 먼저 이 책에서 소개하는 방법을 살펴보면 닐슨 노먼 그룹에 있는 ‘크리스찬 로어 Christian Rohrer’가 제안하는 방법들로 구성되어 있었다. 사실, 많은 좋좋소 회사들 또는 마음맞는 이들끼리 모여서 진행하는 사이드 프로젝트에서 ..
2024.04.08
-
LLM | ollama 4부. 검색증강 RAG 적용하기
LLM | ollama 4부. 검색증강 RAG 적용하기 - ollama 1부. 로컬 터미널에서 실행하기 : Linux(wsl 2), MacOS - ollama 2부. 로컬 브라우저에서 실행하기 : open-webui - ollama 3부. 온라인(내 도메인으로) 브라우저에서 실행하기 👉 ollama 4부. 검색증강 RAG 적용하기 - ollama 5부. 이미지 인식 적용하기 - (준비 중) ollama 6부. MOE mixture of exports 방식 적용하기 Ollama RAG에 앞서 참고로 RAG라는 보편적 개념과 관련 API를 제공하는 프레임워크가 랭체인 LangChain인 만큼 관련 기본적인 내용과 실습을 선행하는 것을 추천하고 관련 내용은 이전에 포스팅해둔 것이 있어서 먼저 걸어두고 시작한다..
2024.02.25
-
LLM | ollama 1부 - 로컬 터미널에서 실행하기 + 버전 업데이트하기
👉 ollama 1부. 로컬 터미널에서 실행하기 : Linux(wsl 2), MacOS & ollama version update - ollama 2부. 로컬 브라우저에서 실행하기 : open-webui - ollama 3부. 온라인(내 도메인으로) 브라우저에서 실행하기 - ollama 4부. 검색증강 RAG 적용하기 - ollama 5부. 이미지 인식 적용하기 - (준비 중) ollama 6부. MOE mixture of exports 방식 적용하기 ollama local terminal on linux(wsl 2) in windows 11 1. 윈도우 하위 시스템(wsl 2)으로 리눅스(우분투) 설치 1) 윈도우 검색에서 [windows 기능 켜기 끄기] 실행 2) 옵션 설정 3) 재부팅 4) 윈도우..
2024.02.20
-
LLM | ollama 2부. 로컬 브라우저에서 실행하기
- ollama 1부. 로컬 터미널에서 실행하기 : Linux(wsl 2), MacOS 👉 ollama 2부. 로컬 브라우저에서 실행하기 : open-webui - ollama 3부. 온라인(내 도메인으로) 브라우저에서 실행하기 : - ollama 4부. 검색증강 RAG 적용하기 - ollama 5부. 이미지 인식 적용하기 - (준비 중) ollama 6부. MOE mixture of exports 방식 적용하기 ollama local browser 1. 도커 이미지로 실행하기( Mac terminal 환경, = 윈도우 cmd와 거의 동일) 1) 도커에 가입한 후 로그인한다 2) 내 컴퓨터 OS 종류에 맞게 도커를 설치한다 Install Docker Engine Learn how to choose the..
2024.02.25
-
LLM | Langchain - 01 개요
LLM | Langchain👉 01 개요 - 02 유형/단계별 RAG 실습 LM과 LLM에 대해 아키텍쳐 - 트랜스포머 Transformer( Decoder, Encorder)학습 알고리즘 - 랭기지 모델 LMLM 워크 플로 : 파운데이션 모델* > RLHF 기법**대규모 컴퓨터 리소스와 데이터를 통해 프리 트레이닝 되어 있는 모델오픈ai나 구글과 달리, 페북의 라마2는 상업적으로도 오픈파운데이션 모델*대규모 컴퓨터 리소스와 데이터를 통해 프리 트레이닝 되어 있는 모델오픈ai나 구글과 달리, 페북의 라마2는 상업적으로도 오픈RLHF 기법**휴먼 피드백 알고리즘- 프롬프트에 대한 답변에 대해 사람이 개입, 인터넷에 있는 텍스트 프로포스를 수집해서 이를 기반으로 점수 부여해서 법, 정치적 문제가 되..
2023.12.17
-
경영전략방식 : Outside in , 고객 in , 기술 out
'고객 in'이란 고객의 입장에서 생각하는 것, '마켓 in'은 현재 수요의 입장에서 생각하는 것이다. 또 '기술 out'은 '핵심은 결국 기술'이라는 철학 아래 멋진 기술을 시장으로 내보낼 출구를 제품의 형태로 찾아내는 것이다. 반면 '프로덕트 out'은 현실적으로 생산할 수 있는 제품을 시장에 내놓는 것이다.이러한 미묘한 차이가 큰 차이를 낳는다. 독특한 제품 시장 전략으로 큰 성과를 거두고 있는 기업은 '고객 in, 기술 out' 자세를 견지한다. 이들 기업은 시장을 향해 '주장'하고 '제안'한다. 본질적으로 뛰어난 멋진 기술로 가다듬은 뒤 고객에게 제안한다. (86p)이타미 히로유키의 '경영자가 된다는 것' 중에서(예인) 경영전략의 핵심은 '고객'에 있습니다. 어떤 것을 누구에게 판매할 것인가라는..
2014.01.02
-
hello world : STS4.0.1(스프링부트) + Maven(메이븐) build
(작성 중인 튜토리얼? 일단 캡쳐화면만 나열.. 시간이되면? 각 이미지별로 설명을 추가하고 GIT 연결할 예정.. 일단 파일 첨부) hello world : STS4.0.1(스프링부트) + Maven(메이븐) build 소스 : 1. 오른쪽 마우스 > New > Other 2. Maven Project 선택 3. 첫번째 체크박스 Create a simple project 선택한 후, next> 버튼 클릭 4. Form 안에 프로젝트 내용 작성한 후 Finish 버튼 클릭 5. 새로 생성된 프로젝트 확인 6. 프로젝트 이름을 클릭하면 목록이 펼쳐짐 7. pom.xml 파일을 열고 필요한 dependency 작성 8. 프로젝트 제목을 선택한 후 오른쪽 마우스 클릭한다. 아래쪽에 java EE tools를 선..
2019.02.11
-
LMStudio X AnythingLLM (feat. AutogenStudio )
로컬 LLM을 코드 베이스로 모델을 설치, 빌드, 배포하는 과정에 대한 전반적인 흐름을 살펴본 후, 노코드로도 진행 할 수 있는 다른 툴을 사용하면서 LLM 개발운영에 대한 전반적인 워크플로우를 알아보도록 한다LMStudio 소개 ollama와..
2024.04.19
-
LLM | ollama 3부. 온라인(내 도메인으로) 브라우저에서 실행하기
- ollama 1부. 로컬 터미널에서 실행하기 : Linux(wsl 2), MacOS - ollama 2부. 로컬 브라우저에서 실행하기 : open-webui 👉 ollama 3부. 온라인(내 도메인으로) 브라우저에서 실행하기 : url로 친구과 함께 사용하기 - ollama 4부. 검색증강 RAG 적용하기 - ollama 5부. 이미지 인식 적용하기 - (준비 중) ollama 6부. MOE mixture of exports 방식 적용하기 ollama browser - online, url 접속 1. ngrok 가입한 후 로그인 하기 1) ngrok 란? ngrok | Unified Application Delivery Platform for Developers ngrok is a secure uni..
2024.03.08
-
LLM | perplexity 퍼플렉서티
퍼플렉서티는 (특히, 아직까진 미국에서)최근 주목받고 있는 AI 기반 검색 엔진이다. 본질은 검색엔진, 그 엔진은 AI 모델, 인터페이스는 채팅의 형태를 차용하고 있다. 다만 기존의 검색 엔진 또는 llm 계열과 달리(?), 퍼플렉시티 AI는 사용자가 자연어로 질문을 하면, 웹과 학습된 데이터를 서로 정보를 결합하여 답변을 생성해준다 *참고로 퍼플렉서티는 NLP(자연어처리) 분야에서 각 언어 모델에 대한 성능을 평가하는 지표로 사용되는 용어이다. 모델의 구조를 살펴보면, 마치 MOE mixture of exports 가 적용된 것 처럼(..맞나? 뇌피셜에 가깝다.) OpenAI GPT-3.5 Turbo 모델 파인튜닝을 통해 개선된 성능을 기반으로 LlaMa Chat(메타), Bird SQL(트위터)의 인..
2024.02.28