SambaNova Documentation home page
日本語
検索...
⌘K
Support
Try It Now
Try It Now
検索...
Navigation
Release notes
概要
User guides
API reference
Release notes
Developer console
Developer community
Release notes
概要
このページの内容
2025年4月18日
2025年4月16日
2025年4月14日
2025年4月9日
2025年4月7日
2025年3月27日
2025年3月20日
2025年3月18日
2025年3月13日
2025年3月6日
2025年3月5日
2025年2月25日
2025年2月21日
2025年2月13日
2025年2月4日
2025年1月30日
2024年12月11日
2024年12月5日
2024年10月29日
2024年10月10日
2024年10月1日
2024年9月10日
Release notes
概要
2025年4月18日
OpenAIの最新の大規模自動音声認識(ASR)モデルであるWhisper-Large-V3の追加を発表できることを嬉しく思います。このモデルは、より高い文字起こしの精度、改善された多言語サポート、そしてノイズの多い音声環境に対するより優れた堅牢性を提供します。
Whisper-Large-V3
このモデルはAPIで誰でも利用可能です。
詳細については
サポート対象モデル
および
レート制限
のページをご覧ください。
2025年4月16日
Llama-4-Maverick-17B-128E-Instruct
が画像入力機能をサポートするようになりました。テキストプロンプトと共に最大2枚の画像をコンテキストとして提供できます。この強化されたモデルは、PlaygroundとAPI両方で利用可能で、すべてのユーザーがアクセスできます。
2025年4月14日
SambaNova Cloudのモデル提供を合理化および強化する継続的な取り組みの一環として、以下のモデルは非推奨となりました:
Llama-3.1-Swallow-70B-Instruct-v0.3
Llama-3.1-Tulu-3-405B
Llama-3.2-11B-Vision-Instruct
Llama-3.2-90B-Vision-Instruct
Meta-Llama-3.1-70B-Instruct
Qwen2.5-72B-Instruct
Qwen2.5-Coder-32B-Instruct
これらのモデルは更新を受けることはなく、2025年4月14日以降にアクティブなエンドポイントから削除される予定です。代替案に関する詳細情報とガイダンスについては、
モデル非推奨
ページをご覧ください。
2025年4月9日
Llama 4ファミリーの新しいモデル、Maverickが SambaNova Cloudに追加されたことを発表できることを嬉しく思います。これは4000億パラメータのエキスパートの混合モデルで、170億のアクティブパラメータと128のエキスパートを持ち、Gemma 3、Gemini 2.0 Flash、およびMistral 3.1と様々なベンチマークで競争力のある結果を提供します。
Llama-4-Maverick-17B-128E-Instruct
Llama-4-Maverick-17B-128E-Instructを
プレビュー
モデルとして追加しました。現在はテキスト入力のみをサポートし、容量は制限されています。画像入力のサポートは間もなく追加される予定です。
このモデルはPlaygroundとAPIで誰でも利用可能です。
詳細については
サポート対象モデル
および
レート制限
のページをご覧ください。
2025年4月7日
次世代のLlamaモデルが到着し、Llama 4 ScoutがSambaNova Cloudで利用可能になりました。これは109Bパラメータのエキスパートの混合モデルで、17Bのアクティブパラメータと16のエキスパートを持ち、Gemma 3、Gemini 2.0 Flash-Lite、およびMistral 3.1と様々なベンチマークで競争力のある結果を提供できます。
Llama-4-Scout-17B-16E-Instruct
Llama-4-Scout-17B-16E-Instructを
プレビュー
モデルとして追加しました。現在はテキスト入力のみをサポートし、容量は制限されています。画像入力のサポートは間もなく追加される予定です。
このモデルはPlaygroundとAPIで誰でも利用可能です。
詳細については
サポート対象モデル
および
レート制限
のページをご覧ください。
2025年3月27日
独自の非推論モデルを性能で上回る最初のオープンソース非推論モデルであるDeepSeek V3-0324の追加を発表できることを嬉しく思います!推論性能の大幅な向上に加えて、DeepSeek V3-0324はより強力なフロントエンド開発スキルとよりスマートなツール使用機能も提供します。
DeepSeek-V3-0324
DeepSeek-V3-0324を
プレビュー
モデルとして、容量制限付きで追加しました。現在、
本番
モデルとして提供できるよう積極的に取り組んでいます。
このモデルはPlaygroundとAPIで誰でも利用可能です。
詳細については
サポート対象モデル
および
レート制限
のページをご覧ください。
2025年3月20日
E5-Mistral-7B-Instruct
E5-Mistral-7B-Instructモデルを追加しました。E5-Mistral-7B-InstructはMistralアーキテクチャをバックボーンとする埋め込みモデルです。このバックボーンモデルは多言語機能を持っていますが、多言語ベンチマークでの性能が十分ではないため、E5-Mistral-7B-Instructは英語のみでの使用を推奨します。
このモデルはAPIで誰でも利用可能です。
詳細については埋め込みの
機能
および
エンドポイント
のドキュメントをご覧ください。
2025年3月18日
DeepSeek-R1
DeepSeek-R1はプレビューモデルから移行し、PlaygroundとAPIで本番モデルとして利用可能になりました。
本番モデルとして、DeepSeek-R1は16kトークンまでのコンテキスト長が増加し、誰でも利用できるようになりました。
モデル一覧エンドポイント
追加された
モデル一覧エンドポイント
は、SambaNova Cloudで現在利用可能なモデルに関する情報を提供します。
2025年3月13日
モデルを更新
DeepSeek-R1-Distill-Llama-70B
DeepSeek-R1-Distill-Llama-70Bのコンテキスト長が128kトークンに増加し、PlaygroundとAPIの両方で利用可能になりました。
2025年3月6日
モデルを追加
QwQ-32B
QwQ-32Bは、Alibaba Qwenチームによってリリースされた最先端の推論モデルです。DeepSeek-R1の671B(37Bが活性化)よりもはるかに少ないパラメータ数にもかかわらず、QwQ-32Bは同等のパフォーマンスを発揮します。言語理解と創造的推論における優れた能力に加えて、QwQ-32Bは現在、高度なエージェント関連機能を統合し、批判的思考、外部ツールの活用、動的な環境フィードバックに基づく推論の適応を可能にしています。
2025年3月5日
モデルを追加
Llama-3.1-Swallow-8B-Instruct-v0.3
モデルを追加
Llama-3.1-Swallow-70B-Instruct-v0.3
Llama 3.1 Swallowシリーズは、MetaのLlama 3.1アーキテクチャの継続的な事前学習を通じて開発された日本語に最適化された言語モデルです。これらの8Bおよび70Bパラメータバージョンは、ウェブコーパス、技術コンテンツ、多言語Wikipediaの記事を含む多様なソースからの200Bトークンでの学習を通じて、英語の能力を維持しながら日本語の言語能力を向上させています。v0.3などの指示調整バージョンは、合成日本語データを使用して微調整を行い、MT-Benchなどの日本語ベンチマークで最先端のパフォーマンスを達成し、8B Instruct v0.3は前バージョンを8.4ポイント、70Bバージョンは5.68ポイント上回っています。
詳しくは
サポートされているモデル
ページをご参照ください。サポートされている設定とそのモデルカードの詳細が記載されています。
2025年2月25日
Llama-3.3-70B
Llama-3.3-70Bのコンテキスト長が128kトークンに増加し、PlaygroundとAPIの両方で本番モデルとして利用可能になりました。
2025年2月21日
DeepSeek-R1
DeepSeek-R1のコンテキスト長が8kトークンに増加し、Playgroundでプレビューモデルとして利用可能になりました。
2025年2月13日
OpenAIのo1に匹敵し、世界を席巻している最先端のオープンソースモデルDeepSeek-R1が、SambaNova Cloudで利用可能になったことを発表できることを大変嬉しく思います!需要が高いため、初期のプレビュー段階ではアクセスが制限されますが、SambaNova Cloud上で超高速な推論速度でDeepSeek-R1を体験できます。これは始まりに過ぎません。さらに多くのエキサイティングな改善が近日中に予定されていますので、ご期待ください!
DeepSeek-R1
DeepSeek-R1は、671BパラメータのMoEモデルで、AIにおける重要な進歩を表しています。このオープンソースの推論モデルは、数学、コーディング、推論などのタスクにおいてOpenAIのo1に匹敵するパフォーマンスを示しています。DeepSeek-R1は通常このようなフロンティアモデルに関連するコストのごく一部で開発されましたが、その推論は依然としてコスト効率が良くないため、より広い容量と可用性が課題となっています。これがDeepSeek-R1へのアクセスが制限されていた理由です—しかし、今はそれが変わります。SambaNova Cloudは状況を一変させ、世界最速のDeepSeek-R1デプロイメントを提供し、その強力な機能をこれまで以上にアクセスしやすくします。
DeepSeek-R1のAPIアクセスとより高いレート制限については、
このフォーム
に記入してウェイトリストにご登録ください。
詳しくは
サポートされているモデル
ページをご参照ください。サポートされている設定とそのモデルカードの詳細が記載されています。
2025年2月4日
DeepSeek-V3よりも優れたパフォーマンスを発揮するオープンソースモデルTülu 3 405BをSambaNova Cloudに追加したことを発表できることを嬉しく思います。
Llama-3.1-Tulu-3-405B
Allen Institute for AI(AI2)によって開発されたTülu 3 405Bは、DeepSeek-V3の最初のオープンソース代替モデルです。検証可能な報酬による強化学習(RLVR)を使用して訓練され、GPT-4oやDeepSeek-V3などの主要なモデルと同等かそれ以上のパフォーマンスを示し、特に安全性ベンチマークで顕著な優位性を持っています。
2025年1月30日
DeepSeek-R1-Distill-Llama-70BがSambaNova Cloudで利用可能になりました。数学、コーディング、その他の分野でトップクラスのクローズドソースモデルを凌駕する最先端のAIを体験してください—比類のないパフォーマンスで今すぐワークロードを強化しましょう。
DeepSeek-R1-Distill-Llama-70B
DeepSeek-R1-Distillモデルは、DeepSeek AIがリリースしたオープンソースモデルをベースに、DeepSeek-R1によって生成されたサンプルを使用して微調整されています。Llama 3.3 70Bをベースに構築されたDeepSeek-R1-Distill-Llama-70Bは、その優れたパフォーマンスで際立っており、AIME、MATH-500、GPQA、LiveCodeBenchなどの複数のベンチマークにおいて、GPT-4o、o1-mini、Claude-3.5-Sonnetを含む主要なクローズドソースモデルを上回り、数学的推論とコーディングタスクの両方で優位性を示しています。
2024年12月11日
MetaのLlama 3.3 70Bモデルの最新版とAlibabaのQwenチームによる新しい先進的なオープンソースの推論モデルQwQがSambaNova Cloudで利用可能になりました。
Llama 3.3 70B
MetaのLlama 3.3 70Bモデルの最新リリースは、推論、数学的問題解決、一般的な知識評価など、複数の領域で印象的な能力を示しています。Llama 3.1 405Bと同等のパフォーマンスを発揮します。ベンチマーク比較では、OpenAIのGPT-4oやGoogleのGemini Pro 1.5などの主要な独自モデルと互角に競合しています。これは、オープンソースモデルが独自モデルに急速に追いつき、さらには凌駕している最新の例となっています。
QwQ 32B Preview
QwQ-32B-Previewモデルは、AlibabaのQwenチームによって開発された推論能力を向上させるための実験的なAIモデルです。325億のパラメータを持ち、数学やプログラミングなどの複雑なタスクで優れた性能を発揮します。特筆すべきは、Graduate-Level Google-Proof Q&A (GPQA)で65.2%、American Invitational Mathematics Examination (AIME)で50.0%、MATH-500で90.6%、LiveCodeBenchで50.0%のスコアを達成し、高い分析能力を示しています。これはプレビューリリースであるため、言語の混在、再帰的な推論ループ、常識的推論や微妙な言語理解など、改善が必要な領域を含む制限があります。
2024年12月5日
Qwen2.5 72B
Qwen2.5-72Bモデルは、コーディング、数学、多言語理解に優れた720億パラメータの言語モデルです。18兆トークンの広範なデータセットで訓練され、最大128,000トークンのコンテキスト長をサポートし、8,000トークンを超える出力を生成できます。このモデルは堅牢な指示追従能力を提供し、英語、中国語、フランス語、スペイン語など、29以上の言語をサポートしています。
Qwen2.5 Coder 32B
Qwen2.5-Coder-32Bモデルは、コード関連タスク向けに調整された320億パラメータの言語モデルです。ソースコードと合成データを含む5.5兆トークンで訓練されました。このモデルは92のプログラミング言語におけるコード生成、推論、デバッグに優れています。特に、HumanEvalスコアで92.7%を達成し、GPT-4oのコーディング能力に匹敵し、コーディングアシスタントのような用途において最高のオープンソースコーディングモデルの1つとなっています。
Llama Guard 3 8B
Llama Guard 3-8Bは、MetaのLlama 3.1モデルをコンテンツ安全性分類用に微調整したバージョンです。LLMの入力(プロンプト)と出力(レスポンス)の両方のコンテンツ安全性モデレーションを評価するために使用できます。与えられたプロンプトやレスポンスが安全か不安全かを示す出力を生成するLLMとして機能します。不安全と判断された場合、MLCommonsの標準化された14のハザード分類に沿って、違反している具体的なコンテンツカテゴリも特定します。
このリリースには、以下のモデルの最大シーケンス長の拡張も含まれています:
Llama 3.2 1B model
最大シーケンス長が4kから16kに増加。
Llama 3.1 70B model
最大シーケンス長が64kから128kに増加。
Llama 3.1 405B model
最大シーケンス長が8kから16kに増加。
2024年10月29日
Llama 3.2 11Bおよび90Bモデル
拡張されたLlama 3.2モデルに11Bと90Bバージョンが追加され、テキストと画像入力のマルチモダリティをサポートし、より多様なAIアプリケーションとユースケースを可能にします。
関数呼び出し
関数呼び出しAPIは、モデルがユーザー入力に基づいて関数呼び出しを提案および選択できるようにすることで、動的なエージェントワークフローを可能にします。この機能により、様々なニーズに適応する柔軟なエージェントワークフローが実現します。
APIとPlaygroundでのマルチモダリティ
Inference API(OpenAI互換)とPlaygroundを通じてマルチモーダルモデルと直接やり取りし、シームレスなテキストと画像処理を実現します。
より迅速な開発のためのPythonとGradioのコードサンプル
新しいPythonとGradioのコードサンプルにより、SambaNova Cloud上でのアプリケーションの構築とデプロイが容易になります。これらの例により、AIモデルの統合が簡素化され、より迅速なプロトタイピングとセットアップ時間の短縮が可能になります。
ユーザーエクスペリエンスの改善
「
APIの使用方法
」ガイドでは、テキストと画像入力の両方に対応するcurlコードの例を使用したクイックスタートを提供します。
更新されたコードスニペットへのアクセスが簡素化され、より見つけやすくなりました。
新しい
チャットのクリア
オプションにより、Playgroundでの実験がさらにスムーズになりました。
ツールチップを追加した新しいUIコンポーネントにより、よりスムーズなユーザーエクスペリエンスを提供します。
AIスターターキットの更新
マルチモーダルリトリーバー
チャート、画像、図の理解。視覚的およびテキストデータを組み合わせた高度な検索と回答生成により、複雑なPDFや画像からの洞察を解き放ちます。
Llama-3.1-Instruct-o1
Llama-3.1-405Bによる強化された推論。Hugging Face Spacesでホストされているllama-3.1-Instruct-o1で高度な思考能力を体験できます。
2024年10月10日
Llama 3.1 8B model
最大シーケンス長が8kから16kに増加。
Llama 3.1 70B model
最大シーケンス長が8kから64kに増加。
シーケンス長に基づく自動ルーティング
モデル名を変更して異なるシーケンス長を指定する必要がなくなりました。システムは自動的にシーケンス長に基づいてリクエストをルーティングします。例えば、
Meta-Llama-3.1-70B-Instruct-8k
を8kシーケンス長に使用する必要はもうありません。後方互換性のために既存の方法もまだサポートしていますが、最良の体験を得るために新しい方法に切り替えることをお勧めします。
Llama 3.2 1Bおよび3Bモデルのパフォーマンスが向上しました。
2024年10月1日
リリース
Llama 3.2 1Bおよび3Bモデル
。
すべてのティアで利用可能
最速の推論速度。
2024年9月10日
一般公開
SambaNova Cloudポータル、API
および
コミュニティ
。
アクセス
Llama 3.1 8B、70Bおよび405B
で
フル精度かつGPUと比較して10倍高速な
推論が可能。
2つのティアでローンチ -
無料版とエンタープライズ版(有料)
。
アシスタント
Responses are generated using AI and may contain mistakes.