LiteLLM is an open-source library that simplifies LLM completion and embedding calls. It provides a convenient and easy-to-use interface for calling different LLM models.
LiteLLM은 LLM 완료 및 호출 포함을 간소화하는 오픈 소스 라이브러리입니다.그것은 다른 LLM 모델을 호출하기 위해 편리하고 사용하기 쉬운 인터페이스를 제공합니다.
어떻게 사용합니까LiteLLM?
LiteLLM을 사용하려면 'litellm' 라이브러리를 가져오고 LLM API 키(예: OPENAI_API_KEY 및 COHERE_API_KEY)에 필요한 환경 변수를 설정해야 합니다.환경 변수가 설정되면 Python 함수를 만들고 LiteLLM을 사용하여 LLM 완료 호출을 할 수 있습니다.LiteLLM은 Python 코드를 작성하고 출력을 볼 수 있는 데모 플레이그라운드를 제공하여 다른 LLM 모델을 비교할 수 있습니다.
LiteLLM 의 사용 사례
LiteLLM 의 핵심 기능
LiteLLM의 핵심 기능은 간소화된 LLM 완료 및 내장 호출, 여러 LLM 모델 (GPT-3.5-turbo 및 Cohere의 command-nightly 와 같은) 지원, LLM 모델을 비교하는 데모 놀이터를 포함합니다.
자주 묻는 질문과 대답LiteLLM
LiteLLM은 어떤 LLM 모델을 지원합니까?LiteLLM은 연구 목적으로 사용할 수 있습니까?
LiteLLM은 자신의 가격을 가지고 있습니까?
LiteLLM의 데모 놀이터는 무엇입니까?