Amazon Bedrock Token 計算,最新模型完整解析!
- 奇軒 李
- 4月22日
- 讀畢需時 3 分鐘

在這個生成式AI 大爆發的時代,AI 軟體百花齊放,在此之中有一產品脫穎而出,那就是 Amazon Bedrock,一個擁有眾多 AI軟體的 AI平台,他實現了大眾對於文本生成、影像生成的需求,它大大的協助我們提升效率。它在協助我們的同時,也以Token數作為收費依據,但對於許多 Amazon Bedrock新手來說都會有個共同問題:
我好擔心我文本生下來要花多少喔!誰教教我要怎麼計算我的Token數啊~
放心~ 我們聽到你的聲音了,在今天這篇將教你Token是什麼?要如何計算你的Token數
文章導覽:
一、Token 是什麼 ??
(一)介紹:
在大型語言模型(LLM)中,token 是模型運算與計價的基本單位,它不是「字」也不是「字元」,而是一種接近「語素」的分段方式。
(二)案例說明:
文字內容 | Token 拆法(概念) | Token 數量 |
Hello, world! | ["Hello", ",", "world", "!"] | 4 tokens |
你好,世界 | ["你", "好", ",", "世", "界"] | 5 tokens |
(三)操作情境:
每次呼叫模型,都會累積以下兩種 token 數量:
Input token:你輸入的文字長度
Output token:模型回應的文字長度
Token 數直接決定你的費用與運算時間
二、Amazon Bedrock 內模型Token數如何計費呢 ?
Amazon Bedrock 並不會在控制台上直接顯示 token 數,但它其實:
✅ 背後依然根據模型的 token 規則進行計費
✅ 每個模型都有自己的 token 上限與計價標準
本文以Amazon Bedrock 常使用的Anthropic Claude 為例
Feature | Claude 3.7 Sonnet | Claude 3.5 Sonnet | Claude 3.5 Haiku | Claude 3 Opus | Claude 3 Haiku |
Context window | 200K | 200K | 200K | 200K | 200K |
Max output | 64000 tokens | 8192 tokens | 8192 tokens | 4096 tokens | 4096 tokens |
Cost ( Input per KTok) ( 隨需模式 ) | 0.003 USD | 0.003 USD | 0.0008 USD | 0.015 USD | 0.00025 USD |
Cost ( Output per KTok ) ( 隨機模式 ) | 0.015 USD | 0.015 USD | 0.004 USD | 0.075 USD | 0.00125 USD |
Cost ( Input per KTok) ( 批次模式 ) | 無 | 0.0015 USD | 0.0005 USD | 0.0075 USD | 0.000125 USD |
Cost ( Output per KTok ) ( 批次模式 ) | 無 | 0.0075 USD | 0.0025 USD | 0.0375 USD | 0.000625 USD |
⚠️ 如果你送出的 prompt 超過 token 上限,API 會直接回傳錯誤。
<延伸學習>
三、使用者該如何計算 Token 呢 ?
雖然 Bedrock 不顯示 token,但我們還是有幾個實用的方式可以自己估算:
(一)方法一:使用 Claude 的官方 Tokenizer 工具
如果你使用的是 Anthropic Claude 模型 ,可以用它們的官方工具來估算:Claude Tokenizer
輸入你的 prompt,它會告訴你 token 數量,預測是否會超過限制。

(二)方法二:使用第三方 tokenizer 工具(英文為主)
像是 OpenAI 的 tiktoken Python 套件,就能估算英文類 prompt 的 token 數
程式碼:
import tiktoken
enc = tiktoken.encoding_for_model("gpt-4") # 可替換為其他模型類型
prompt = "Hello, this is a test prompt."
token_count = len(enc.encode(prompt))
print(f"Token count: {token_count}")
(三)方法三:估算法則
如果只是快速抓一個概念,可以參考這些粗估:
Claude 模型:每個中文字 ≈ 1 token
英文文字:75 個單字 ≈ 100 tokens
中英混合段落:每 100 字 ≈ 100–130 tokens
四、為什麼 Token 控制那麼重要 ?
控制 token 不只是為了「省錢」,更是為了:
避免超出模型限制:Bedrock 各模型有上下文限制,太長會錯誤
提升反應速度:token 越多,回應越慢
控管成本:Bedrock 是照 token 數量收費的,控制越好越省
五、結論: 理解 token,讓你用 Bedrock 更順手
經過文章的詳細解說後,你是否已瞭解了Token是什麼了?是否也知道該如何運用方法了解你的文章擁有多少Token 數量了呀。雖然 Amazon Bedrock 沒辦法一鍵 token 查詢,但它的計費與模型運作本質仍然是建立在 token 機制上。只要你懂得怎麼估算與控管,就能更有效使用 Bedrock、降低成本、避免錯誤。
現在~ 該開始使用屬於你的 Amazon Bedrock 吧 !
Comments