ホーム
Hugging Face

Hugging Face

Hugging Faceは50万以上のモデル、データセット、Spacesをホスティングする世界最大のオープンソースAIプラットフォームで、グローバルな機械学習コミュニティの中心的ハブです。

Productivity freemium
ウェブサイトへ

Hugging Faceは人工知能分野の事実上のGitHubとして確立されており、研究者、エンジニア、組織が前例のない規模でAIモデルとデータセットを共有、発見、協働するプラットフォームです。50万以上の公開モデルと数十万のデータセットを持つHugging Face Hubは、世界最大のオープンソース機械学習アセットリポジトリです。

エコシステムの基盤はGitHubスター10万超のTransformersライブラリです。NLP、コンピュータビジョン、音声タスクにわたるトランスフォーマーベースモデルの標準フレームワークとして、数行のPythonコードで最新モデルのダウンロード、ファインチューニング、デプロイが可能な統一APIを提供します。

Hugging Face Spacesでは、インフラ管理なしにGradioやStreamlitベースのインタラクティブなAIデモやWebアプリを構築・デプロイできます。カスタムデータセットでモデルをファインチューニングするノーコードインターフェースのAutoTrainも提供しており、専門知識がなくても特化型AIモデルを作成できます。

主な機能

  • NLP、ビジョン、音声、マルチモーダルタスクにわたる50万以上のオープンソースモデルを持つモデルハブ — タスクとフレームワークで検索・フィルタリング可能
  • BERT、GPT、T5、Llama、Stable Diffusionなどの統一APIを提供するGitHubスター10万超のTransformersライブラリ
  • インフラ不要でGradioまたはStreamlitによるインタラクティブなAIデモとWebアプリを構築・共有するHugging Face Spaces
  • モデルの重みをローカルにダウンロードせずに、シンプルなHTTPリクエストでホスト済みモデルをクエリするInference API
  • 機械学習の専門知識なしにカスタムデータセットでモデルをファインチューニングするAutoTrainノーコードプラットフォーム
  • すべてのAIドメインの学習、評価、研究のための10万以上のオープンデータセットを持つDatasetsライブラリ
  • Hub経由でのモデルとデータセットのGitベースのバージョン管理、ブランチ、共同ワークフロー
  • 機能、限界、責任ある使用ガイドラインを文書化したモデルカードとデータセットカード
  • 組織向けのSSO、監査ログ、プライベートモデルリポジトリ、専用インフラを備えたEnterprise Hub
  • 効率的なモデルトレーニング、パラメータ効率的なファインチューニング、人間フィードバックによる強化学習のためのAccelerate、PEFT、TRLライブラリ

よくある質問

Hugging Faceは無料で使えますか?

はい、Hugging Faceのコアプラットフォームは充実した無料プランを提供しています。フルモデルハブ、データセット、共有CPU上のSpaces、使用制限付きのInference APIに無料でアクセスできます。月額$9のProプランでは、より高速なInference API、より多くのSpacesハードウェアオプション、新機能への早期アクセスが利用可能です。カスタム価格のEnterpriseプランは、プライベートインフラ、SSO、コンプライアンス機能、専任サポートを提供します。

Transformersライブラリとは何ですか?なぜ重要なのですか?

Hugging Face Transformersライブラリは、何千もの事前学習済みAIモデルをダウンロード、使用、ファインチューニングするための標準化されたインターフェースを提供するPythonパッケージです。GitHubスター10万超を誇り、研究・本番コミュニティで最も広く使われるディープラーニングライブラリとなっています。モデルアーキテクチャの複雑さを抽象化し、数行のコードでテキスト分類、翻訳、要約、画像生成、音声認識などのタスク用モデルをロードできます。

モデルをローカルで実行できますか?それともAPIのみですか?

両方のオプションが利用可能です。Transformersライブラリを使ってHubからモデルをダウンロードし、完全にローカルで実行できます — プライバシーに敏感なアプリケーションやオフラインアクセスが必要な場合に最適です。あるいは、Inference APIを使えばローカルのセットアップなしにHugging Faceのサーバーでホストされているモデルをクエリできます。本番ワークロードには、特定のモデルをオンデマンドでデプロイできる専用のスケーラブルなインフラを提供するInference Endpointsもあります。

Hugging Faceを本番環境で使っているのはどのような組織ですか?

Hugging Faceは個人研究者やスタートアップから世界最大のテクノロジー企業まで、あらゆる規模の組織に使われています。Google、Meta、Microsoft、Amazon、Salesforceや何千もの企業がプラットフォームにモデルを公開しています。スタートアップはAI機能を素早くプロトタイプ・デプロイするために活用し、研究機関は論文の成果物を共有するために使います。世界的にオープンソースAIモデルの標準的な配布チャネルと見なされています。

AutoTrainとは何ですか?どのように機能しますか?

AutoTrainはコードを書かずに自分のデータでカスタムAIモデルを学習できる、Hugging Faceのノーコードファインチューニングプラットフォームです。ラベル付きデータセットをアップロードし、タスクタイプ(テキスト分類、要約、画像分類など)を選択し、ベースモデルを選ぶだけで、AutoTrainがデータの前処理、学習、評価、Hubへのモデルアップロードまで全学習パイプラインを処理します。カスタムモデルが必要だが専任のMLエンジニアリングリソースがないチーム向けに設計されています。

代替ツール

Productivityの他のツール

タグ

ML platform open-source model hub datasets transformers AI community