Plextiy Pro 구독자는 매월 $5를 무료로 제공합니다!!!steemCreated with Sketch.

in #blog20 days ago (edited)


Plextiy Pro 구독자는 매월 $5를 무료로 제공한다는 말을 듣고 Perplexity API 페이지에 가보니 정말로 보너스 $5가 있었습니다.

지원 모델 및 가격

모델파라미터 수컨텍스트 길이1,000 요청당 가격100만 토큰당 가격
llama-3.1-sonar-small-128k-online8B127,072$5$0.2
llama-3.1-sonar-large-128k-online70B127,072$5$1
llama-3.1-sonar-huge-128k-online405B127,072$5$5

Rate Limits

모델요청 속도 제한
llama-3.1-sonar-small-128k-online50/min
llama-3.1-sonar-large-128k-online50/min
llama-3.1-sonar-huge-128k-online50/min

시작하기

참고: https://docs.perplexity.ai/guides/getting-started


from openai import OpenAI

YOUR_API_KEY = "INSERT API KEY HERE"

client = OpenAI(api_key=YOUR_API_KEY, base_url="https://api.perplexity.ai")


messages = [
    {
        "role": "system",
        "content": (
            "당신은 인공지능 어시스턴트이며 "
            "사용자와 유용하고 상세하며 정중한 대화를 나누세요."
        ),
    },
    {   
        "role": "user",
        "content": (
            "우주에는 몇 개의 별이 있나요?"
        ),
    },
]


# chat completion without streaming
response = client.chat.completions.create(
    model="llama-3.1-sonar-large-128k-online",
    messages=messages,
)
print(response.choices[0].message.content)


지식 출처는 response의 citations 속성에 있습니다.



스트리밍을 사용할 수도 있습니다.

# chat completion with streaming
response_stream = client.chat.completions.create(
    model="llama-3.1-sonar-large-128k-online",
    messages=messages,
    stream=True,
)
for response in response_stream:
    print(response)

llama-3.1-sonar-large 모델까지는 가격이 저렴해 부담 없이 호출할 수 있습니다. 하지만 llama-3.1-sonar-huge부터는 가격이 다소 부담됩니다.



Posted through the ECblog app (https://blog.etain.club)

Sort:  

[광고] STEEM 개발자 커뮤니티에 참여 하시면, 다양한 혜택을 받을 수 있습니다.

Upvoted! Thank you for supporting witness @jswit.

안녕하세요. 오늘(2024.12.01) 기준 @jsup 2.0 후원 보팅 현황입니다.

jsup 2.0 - 업보팅을 다시 위대하게

@newiz -> @anpigon : 613.77sp

@jsup에 임대하시면 매일 업보팅을 받으며, 23일후부터 매일 큐레이션/패시브 보상을 받습니다. 후원 내역이 있을 경우 임대량에 합산되어 보팅됩니다. 개발자(@joviansummer) 지원 보팅 외에 수수료가 없어 수익률도 우수합니다. 많은 관심 부탁드립니다. 감사합니다.