2025年4月18日

OpenAIの最新の大規模自動音声認識(ASR)モデルであるWhisper-Large-V3の追加を発表できることを嬉しく思います。このモデルは、より高い文字起こしの精度、改善された多言語サポート、そしてノイズの多い音声環境に対するより優れた堅牢性を提供します。

2025年4月16日

Llama-4-Maverick-17B-128E-Instructが画像入力機能をサポートするようになりました。テキストプロンプトと共に最大2枚の画像をコンテキストとして提供できます。この強化されたモデルは、PlaygroundとAPI両方で利用可能で、すべてのユーザーがアクセスできます。

2025年4月14日

SambaNova Cloudのモデル提供を合理化および強化する継続的な取り組みの一環として、以下のモデルは非推奨となりました:
  • Llama-3.1-Swallow-70B-Instruct-v0.3
  • Llama-3.1-Tulu-3-405B
  • Llama-3.2-11B-Vision-Instruct
  • Llama-3.2-90B-Vision-Instruct
  • Meta-Llama-3.1-70B-Instruct
  • Qwen2.5-72B-Instruct
  • Qwen2.5-Coder-32B-Instruct
これらのモデルは更新を受けることはなく、2025年4月14日以降にアクティブなエンドポイントから削除される予定です。代替案に関する詳細情報とガイダンスについては、モデル非推奨ページをご覧ください。

2025年4月9日

Llama 4ファミリーの新しいモデル、Maverickが SambaNova Cloudに追加されたことを発表できることを嬉しく思います。これは4000億パラメータのエキスパートの混合モデルで、170億のアクティブパラメータと128のエキスパートを持ち、Gemma 3、Gemini 2.0 Flash、およびMistral 3.1と様々なベンチマークで競争力のある結果を提供します。
  • Llama-4-Maverick-17B-128E-Instruct
    • Llama-4-Maverick-17B-128E-Instructをプレビューモデルとして追加しました。現在はテキスト入力のみをサポートし、容量は制限されています。画像入力のサポートは間もなく追加される予定です。
    • このモデルはPlaygroundとAPIで誰でも利用可能です。
    • 詳細についてはサポート対象モデルおよびレート制限のページをご覧ください。

2025年4月7日

次世代のLlamaモデルが到着し、Llama 4 ScoutがSambaNova Cloudで利用可能になりました。これは109Bパラメータのエキスパートの混合モデルで、17Bのアクティブパラメータと16のエキスパートを持ち、Gemma 3、Gemini 2.0 Flash-Lite、およびMistral 3.1と様々なベンチマークで競争力のある結果を提供できます。
  • Llama-4-Scout-17B-16E-Instruct
    • Llama-4-Scout-17B-16E-Instructをプレビューモデルとして追加しました。現在はテキスト入力のみをサポートし、容量は制限されています。画像入力のサポートは間もなく追加される予定です。
    • このモデルはPlaygroundとAPIで誰でも利用可能です。
    • 詳細についてはサポート対象モデルおよびレート制限のページをご覧ください。

2025年3月27日

独自の非推論モデルを性能で上回る最初のオープンソース非推論モデルであるDeepSeek V3-0324の追加を発表できることを嬉しく思います!推論性能の大幅な向上に加えて、DeepSeek V3-0324はより強力なフロントエンド開発スキルとよりスマートなツール使用機能も提供します。
  • DeepSeek-V3-0324
    • DeepSeek-V3-0324をプレビューモデルとして、容量制限付きで追加しました。現在、本番モデルとして提供できるよう積極的に取り組んでいます。
    • このモデルはPlaygroundとAPIで誰でも利用可能です。
    • 詳細についてはサポート対象モデルおよびレート制限のページをご覧ください。

2025年3月20日

  • E5-Mistral-7B-Instruct
    • E5-Mistral-7B-Instructモデルを追加しました。E5-Mistral-7B-InstructはMistralアーキテクチャをバックボーンとする埋め込みモデルです。このバックボーンモデルは多言語機能を持っていますが、多言語ベンチマークでの性能が十分ではないため、E5-Mistral-7B-Instructは英語のみでの使用を推奨します。
    • このモデルはAPIで誰でも利用可能です。
    • 詳細については埋め込みの機能およびエンドポイントのドキュメントをご覧ください。

2025年3月18日

  • DeepSeek-R1
    • DeepSeek-R1はプレビューモデルから移行し、PlaygroundとAPIで本番モデルとして利用可能になりました。
    • 本番モデルとして、DeepSeek-R1は16kトークンまでのコンテキスト長が増加し、誰でも利用できるようになりました。
  • モデル一覧エンドポイント

2025年3月13日

  • モデルを更新DeepSeek-R1-Distill-Llama-70B
    • DeepSeek-R1-Distill-Llama-70Bのコンテキスト長が128kトークンに増加し、PlaygroundとAPIの両方で利用可能になりました。

2025年3月6日

  • モデルを追加QwQ-32B
QwQ-32Bは、Alibaba Qwenチームによってリリースされた最先端の推論モデルです。DeepSeek-R1の671B(37Bが活性化)よりもはるかに少ないパラメータ数にもかかわらず、QwQ-32Bは同等のパフォーマンスを発揮します。言語理解と創造的推論における優れた能力に加えて、QwQ-32Bは現在、高度なエージェント関連機能を統合し、批判的思考、外部ツールの活用、動的な環境フィードバックに基づく推論の適応を可能にしています。

2025年3月5日

  • モデルを追加Llama-3.1-Swallow-8B-Instruct-v0.3
  • モデルを追加Llama-3.1-Swallow-70B-Instruct-v0.3
Llama 3.1 Swallowシリーズは、MetaのLlama 3.1アーキテクチャの継続的な事前学習を通じて開発された日本語に最適化された言語モデルです。これらの8Bおよび70Bパラメータバージョンは、ウェブコーパス、技術コンテンツ、多言語Wikipediaの記事を含む多様なソースからの200Bトークンでの学習を通じて、英語の能力を維持しながら日本語の言語能力を向上させています。v0.3などの指示調整バージョンは、合成日本語データを使用して微調整を行い、MT-Benchなどの日本語ベンチマークで最先端のパフォーマンスを達成し、8B Instruct v0.3は前バージョンを8.4ポイント、70Bバージョンは5.68ポイント上回っています。 詳しくはサポートされているモデルページをご参照ください。サポートされている設定とそのモデルカードの詳細が記載されています。

2025年2月25日

  • Llama-3.3-70B
    • Llama-3.3-70Bのコンテキスト長が128kトークンに増加し、PlaygroundとAPIの両方で本番モデルとして利用可能になりました。

2025年2月21日

  • DeepSeek-R1
    • DeepSeek-R1のコンテキスト長が8kトークンに増加し、Playgroundでプレビューモデルとして利用可能になりました。

2025年2月13日

OpenAIのo1に匹敵し、世界を席巻している最先端のオープンソースモデルDeepSeek-R1が、SambaNova Cloudで利用可能になったことを発表できることを大変嬉しく思います!需要が高いため、初期のプレビュー段階ではアクセスが制限されますが、SambaNova Cloud上で超高速な推論速度でDeepSeek-R1を体験できます。これは始まりに過ぎません。さらに多くのエキサイティングな改善が近日中に予定されていますので、ご期待ください!
  • DeepSeek-R1
    • DeepSeek-R1は、671BパラメータのMoEモデルで、AIにおける重要な進歩を表しています。このオープンソースの推論モデルは、数学、コーディング、推論などのタスクにおいてOpenAIのo1に匹敵するパフォーマンスを示しています。DeepSeek-R1は通常このようなフロンティアモデルに関連するコストのごく一部で開発されましたが、その推論は依然としてコスト効率が良くないため、より広い容量と可用性が課題となっています。これがDeepSeek-R1へのアクセスが制限されていた理由です—しかし、今はそれが変わります。SambaNova Cloudは状況を一変させ、世界最速のDeepSeek-R1デプロイメントを提供し、その強力な機能をこれまで以上にアクセスしやすくします。
DeepSeek-R1のAPIアクセスとより高いレート制限については、このフォームに記入してウェイトリストにご登録ください。
詳しくはサポートされているモデルページをご参照ください。サポートされている設定とそのモデルカードの詳細が記載されています。

2025年2月4日

DeepSeek-V3よりも優れたパフォーマンスを発揮するオープンソースモデルTülu 3 405BをSambaNova Cloudに追加したことを発表できることを嬉しく思います。
  • Llama-3.1-Tulu-3-405B
    • Allen Institute for AI(AI2)によって開発されたTülu 3 405Bは、DeepSeek-V3の最初のオープンソース代替モデルです。検証可能な報酬による強化学習(RLVR)を使用して訓練され、GPT-4oやDeepSeek-V3などの主要なモデルと同等かそれ以上のパフォーマンスを示し、特に安全性ベンチマークで顕著な優位性を持っています。

2025年1月30日

DeepSeek-R1-Distill-Llama-70BがSambaNova Cloudで利用可能になりました。数学、コーディング、その他の分野でトップクラスのクローズドソースモデルを凌駕する最先端のAIを体験してください—比類のないパフォーマンスで今すぐワークロードを強化しましょう。
  • DeepSeek-R1-Distill-Llama-70B
    • DeepSeek-R1-Distillモデルは、DeepSeek AIがリリースしたオープンソースモデルをベースに、DeepSeek-R1によって生成されたサンプルを使用して微調整されています。Llama 3.3 70Bをベースに構築されたDeepSeek-R1-Distill-Llama-70Bは、その優れたパフォーマンスで際立っており、AIME、MATH-500、GPQA、LiveCodeBenchなどの複数のベンチマークにおいて、GPT-4o、o1-mini、Claude-3.5-Sonnetを含む主要なクローズドソースモデルを上回り、数学的推論とコーディングタスクの両方で優位性を示しています。

2024年12月11日

MetaのLlama 3.3 70Bモデルの最新版とAlibabaのQwenチームによる新しい先進的なオープンソースの推論モデルQwQがSambaNova Cloudで利用可能になりました。
  • Llama 3.3 70B
    • MetaのLlama 3.3 70Bモデルの最新リリースは、推論、数学的問題解決、一般的な知識評価など、複数の領域で印象的な能力を示しています。Llama 3.1 405Bと同等のパフォーマンスを発揮します。ベンチマーク比較では、OpenAIのGPT-4oやGoogleのGemini Pro 1.5などの主要な独自モデルと互角に競合しています。これは、オープンソースモデルが独自モデルに急速に追いつき、さらには凌駕している最新の例となっています。
  • QwQ 32B Preview
    • QwQ-32B-Previewモデルは、AlibabaのQwenチームによって開発された推論能力を向上させるための実験的なAIモデルです。325億のパラメータを持ち、数学やプログラミングなどの複雑なタスクで優れた性能を発揮します。特筆すべきは、Graduate-Level Google-Proof Q&A (GPQA)で65.2%、American Invitational Mathematics Examination (AIME)で50.0%、MATH-500で90.6%、LiveCodeBenchで50.0%のスコアを達成し、高い分析能力を示しています。これはプレビューリリースであるため、言語の混在、再帰的な推論ループ、常識的推論や微妙な言語理解など、改善が必要な領域を含む制限があります。

2024年12月5日

  • Qwen2.5 72B
    • Qwen2.5-72Bモデルは、コーディング、数学、多言語理解に優れた720億パラメータの言語モデルです。18兆トークンの広範なデータセットで訓練され、最大128,000トークンのコンテキスト長をサポートし、8,000トークンを超える出力を生成できます。このモデルは堅牢な指示追従能力を提供し、英語、中国語、フランス語、スペイン語など、29以上の言語をサポートしています。
  • Qwen2.5 Coder 32B
    • Qwen2.5-Coder-32Bモデルは、コード関連タスク向けに調整された320億パラメータの言語モデルです。ソースコードと合成データを含む5.5兆トークンで訓練されました。このモデルは92のプログラミング言語におけるコード生成、推論、デバッグに優れています。特に、HumanEvalスコアで92.7%を達成し、GPT-4oのコーディング能力に匹敵し、コーディングアシスタントのような用途において最高のオープンソースコーディングモデルの1つとなっています。
  • Llama Guard 3 8B
    • Llama Guard 3-8Bは、MetaのLlama 3.1モデルをコンテンツ安全性分類用に微調整したバージョンです。LLMの入力(プロンプト)と出力(レスポンス)の両方のコンテンツ安全性モデレーションを評価するために使用できます。与えられたプロンプトやレスポンスが安全か不安全かを示す出力を生成するLLMとして機能します。不安全と判断された場合、MLCommonsの標準化された14のハザード分類に沿って、違反している具体的なコンテンツカテゴリも特定します。
このリリースには、以下のモデルの最大シーケンス長の拡張も含まれています:
  • Llama 3.2 1B model
    • 最大シーケンス長が4kから16kに増加。
  • Llama 3.1 70B model
    • 最大シーケンス長が64kから128kに増加。
  • Llama 3.1 405B model
    • 最大シーケンス長が8kから16kに増加。

2024年10月29日

  • Llama 3.2 11Bおよび90Bモデル
    • 拡張されたLlama 3.2モデルに11Bと90Bバージョンが追加され、テキストと画像入力のマルチモダリティをサポートし、より多様なAIアプリケーションとユースケースを可能にします。
  • 関数呼び出し
    • 関数呼び出しAPIは、モデルがユーザー入力に基づいて関数呼び出しを提案および選択できるようにすることで、動的なエージェントワークフローを可能にします。この機能により、様々なニーズに適応する柔軟なエージェントワークフローが実現します。
  • APIとPlaygroundでのマルチモダリティ
    • Inference API(OpenAI互換)とPlaygroundを通じてマルチモーダルモデルと直接やり取りし、シームレスなテキストと画像処理を実現します。
  • より迅速な開発のためのPythonとGradioのコードサンプル
    • 新しいPythonとGradioのコードサンプルにより、SambaNova Cloud上でのアプリケーションの構築とデプロイが容易になります。これらの例により、AIモデルの統合が簡素化され、より迅速なプロトタイピングとセットアップ時間の短縮が可能になります。
  • ユーザーエクスペリエンスの改善
    • APIの使用方法」ガイドでは、テキストと画像入力の両方に対応するcurlコードの例を使用したクイックスタートを提供します。
    • 更新されたコードスニペットへのアクセスが簡素化され、より見つけやすくなりました。
    • 新しいチャットのクリアオプションにより、Playgroundでの実験がさらにスムーズになりました。
    • ツールチップを追加した新しいUIコンポーネントにより、よりスムーズなユーザーエクスペリエンスを提供します。
  • AIスターターキットの更新
    • マルチモーダルリトリーバー
      • チャート、画像、図の理解。視覚的およびテキストデータを組み合わせた高度な検索と回答生成により、複雑なPDFや画像からの洞察を解き放ちます。
    • Llama-3.1-Instruct-o1
      • Llama-3.1-405Bによる強化された推論。Hugging Face Spacesでホストされているllama-3.1-Instruct-o1で高度な思考能力を体験できます。

2024年10月10日

  • Llama 3.1 8B model
    • 最大シーケンス長が8kから16kに増加。
  • Llama 3.1 70B model
    • 最大シーケンス長が8kから64kに増加。
  • シーケンス長に基づく自動ルーティング
    • モデル名を変更して異なるシーケンス長を指定する必要がなくなりました。システムは自動的にシーケンス長に基づいてリクエストをルーティングします。例えば、Meta-Llama-3.1-70B-Instruct-8kを8kシーケンス長に使用する必要はもうありません。後方互換性のために既存の方法もまだサポートしていますが、最良の体験を得るために新しい方法に切り替えることをお勧めします。
  • Llama 3.2 1Bおよび3Bモデルのパフォーマンスが向上しました。

2024年10月1日

2024年9月10日