LLM
-
[LlamaIndex] Llama-Index와 DB 연동하기(DatabaseReader, feat. agent)Data & ML & AI/LLM 2024. 10. 8. 21:31
LlamaIndex를 이용하면 DB와 LLM을 쉽게 연결할 수 있습니다.주관적으로는 LangChain보다 더 간편하다고 생각합니다. 0. 세팅1) pip installpip install llama-index # 라마인덱스 기본pip install llama-index-readers-database # DB와 연결 2) LLM 세팅a. Open AI의 ChatGPT를 사용하는 경우# Open AI의 ChatGPT를 사용하는 경우import osfrom llama_index.core import Settingsos.environ["OPENAI_API_KEY"] = "$$$$$$$$$$$$$$"llm = OpenAI(model="gpt-3.5-turbo-0613")Settings.llm = llm b. ..
-
[AWS Bedrock] Langchain과 Bedrock 함께쓰기Programing/AWS 2024. 3. 12. 18:43
이 전 글에서는 RAG를 위한 지식베이스를 생성할 때, AWS Opensearch serverless를 사용했습니다. [AWS Bedrock] RAG를 위한 지식베이스 생성이전 글에서는 Bedrock을 이용해 간단한 서비스를 생성했습니다. [AWS Bedrock] Bedrock 시작하기 LLM의 빠른 도입과 테스트를 위해 Bedrock을 이용해 LLM서비스를 구축하기로 선택했습니다. (아래의 이전brain-nim.tistory.com S3의 데이터를 바로 활용 가능하고 따로 서버를 관리할 필요가 없다는 장점이 있지만,비용이 생각 이상으로 비싸다는 단점이 있었습니다.(짐작은 했지만 실험해보니 생각 이상으로 더 비쌌습니다.) 이번엔 Langchain을 이용해 지식베이스 벡터를 로컬에 생성한 뒤 Bedrock..
-
[AWS Bedrock] Agents로 Bedrock 기능 구체화하기Programing/AWS 2024. 3. 3. 00:59
이전 글에서 AWS Bedrock을 이용해 RAG를 진행했지만, 퀄리티가 마음에 들지 않습니다. 말투도 바꾸고 싶고, 보여줄 정보와 보여주고 싶지 않은 정보를 구분하고 싶은데 방법이 마땅치 않았습니다. 이런 부분에서 AWS Bedrock이 제공하는 Agents기능이 도움이 됩니다. 자연어를 사용해 프롬프트하고 응답 작업을 세분화하고 조율(오케스트레이션) 동적으로 API를 호출하여 작업 완료 회사 데이터에 안전하고 비공개적으로 액세스 CoT(chain-of-thought) 및 기본 에이전트 프롬프트 표시 당연히 제공되어야 하는 1번째(LLM사용) 사항은 논외로 하고, Amazon Bedrock Agents의 장점은 나머지 사항들이 비교적 손쉽게 자동으로 이루어진다는 점입니다. 예를 들어, 인사관리용 Ass..
-
[AWS Bedrock] RAG를 위한 지식베이스 생성Programing/AWS 2024. 2. 27. 23:19
이전 글에서는 Bedrock을 이용해 간단한 서비스를 생성했습니다. [AWS Bedrock] Bedrock 시작하기 LLM의 빠른 도입과 테스트를 위해 Bedrock을 이용해 LLM서비스를 구축하기로 선택했습니다. (아래의 이전 글 참조) [생성AI 서비스 선택] AWS Sagemaker VS AWS Bedrock 생성AI를 비즈니스에 도입하는 경우가 brain-nim.tistory.com 하지만 이정도만 할 거라면 굳이 AWS를 사용할 필요가 없죠. OpenAI나 기타 서비스가 제공하는 API를 이용하는게 훨씬 간편하고 저렴하니까요. 클라우드를 이용할 때의 장점 중 하나는 여러 서비스 자원을 쉽게 활용할 수 있다는 것이므로, 이번에는 Bedrock이 S3 저장소에 있는 자료를 참고해서 답변을 하도록 해..
-
[AWS Bedrock] Bedrock 시작하기Programing/AWS 2024. 2. 27. 00:59
LLM의 빠른 도입과 테스트를 위해 Bedrock을 이용해 LLM서비스를 구축하기로 선택했습니다. (아래의 이전 글 참조) [생성AI 서비스 선택] AWS Sagemaker VS AWS Bedrock 생성AI를 비즈니스에 도입하는 경우가 급증하고 있는 만큼, '우리도...!!'를 외치게 되는 분들이 많으실 겁니다. OpenAI나 기타 기업 및 서비스의 API를 직접 가져다 쓰기에는 리소스가 만만치 않고, brain-nim.tistory.com 이제 AWS Bedrock이 제공하는 Foundation Model 중 하나를 선택해 서비스를 구축해봅시다. 주의사항 주의1) 리전 별 이용 가능한 모델, 가격이 다릅니다. 미국 동부, 미국 서부를 제외하면 선택 가능 모델이 매우 제한됩니다. 같은 모델이더라도 미국..
-
[생성AI 서비스 선택] AWS Sagemaker VS AWS BedrockPrograming/AWS 2024. 2. 26. 19:12
생성AI를 비즈니스에 도입하는 경우가 급증하고 있는 만큼, '우리도...!!'를 외치게 되는 분들이 많으실 겁니다. OpenAI나 기타 기업 및 서비스의 API를 직접 가져다 쓰기에는 리소스가 만만치 않고, 타 리소스와의 유연한 연계, 특히 RAG와 같은 벡터DB를 연계하고 관리비용을 줄이고자 한다면 클라우드 서비스부터 시작하는게 맞는 것 같기도 합니다. 그렇게 이런 저런 비교를 하며 AWS로 왔는데 (아마 가장 많은 비율로 '원래 AWS를 사용하고 있었으니까' or 'AWS 관련 자료가 가장 찾기 쉬워서'겠죠?) AWS 안에서도 LLM을 지원한다는 서비스가 Sagemaker, Bedrock로 나뉩니다. AWS에 익숙치 않거나, 기존 Sagemaker를 이용하지 않고 자체적으로 모델을 구축 관리해왔던 입..