Google は、8 つのコースと 2 つのテストを含む生成 AI ラーニング パスをリリースしました。技術原則、実装方法、アプリケーション シナリオ、開発とデプロイメントに至るまですべてをカバーしています。一部のコースは Google Cloud にありますが、内容と構造は非常に優れており、完全に優れています。無料。


8つのコースの紹介とリンクは次のとおりです。
Xiaopan からのメモ: 何を学べばよいか分からない場合は、序文を読んでください。手がかゆい場合は、#4 5 #8 に直接移動して、テキストからテキストを生成する、テキストを生成する 3 つの実践的なプロジェクトを実行できます。テキストからの作成、および画像からのテキストの生成。
1. 生成 AI とは何ですか、そのアプリケーションは何ですか、そして従来の機械学習との違いは何ですか。
[学習後に読み書きの目標を達成する]
2. 大規模言語モデル (LLM) とは何か、大規模言語モデルのアプリケーション シナリオ、およびプロンプト ワード () と微調整 (微調整) によってモデルのパフォーマンスがどのように向上するか。
[90%以上の中国人Twitter友達が学習後]
3. 責任ある AI (Responsible AI) とは何か、AI モデルが安全、信頼性、倫理的であることが重要である理由、および責任ある AI を使用する製品を構築する方法。
[実用的な価値はあまりありません。学んだ後、ワインの席で自慢することはできますが、嫌われるでしょう。 】
4. 普及モデルの画像生成モデルの理論、モデルのトレーニング方法、およびモデルをクラウドにデプロイする方法 (商品の提供を開始します!)。
[学習すると、画像生成スタートアップ企業がどのように操作されているかがわかります]
5. 機械翻訳や音声認識などのタスクで広く使用されているエンコーダ/デコーダ モデル アーキテクチャの原理と、このアーキテクチャを使用した詩生成 AI を TensorFlow で構築する方法
[実際には、ほとんどのテキスト生成スタートアップはこのカバーを使用していません...彼らにとっては難しすぎます...しかし、事前に独自の構成要素を構築し、ビジネスをカバーする方法を作成できます]
6. ニューラル ネットワークのアテンション メカニズムは、限られたコンピューティング能力の条件下でどのようにコンピューティング リソースをより重要なタスクに割り当て、翻訳、要約、質問応答などのパフォーマンスを向上させますか。
[技術系以外の背景を持つほとんどの VC や起業家はこのレベルに達することができません。現時点では、自慢は簡単には破られません]
7. 自然言語処理における事前トレーニング テクノロジ BERT (Bidirectional Encoder Representations from Transformers) の基本原理と、それを使用して AI がさまざまなタスクのコンテキスト内でラベルのないテキストを理解する能力をどのように大幅に向上させることができるか。
[学術的には...本当に素晴らしい...しかし、Google が自社のテクノロジーを自慢しているように感じます...]
8. 画像の理解とラベル付けを学び、画像を見て話し、画像を理解する人工知能モデルを構築する方法を学びます。
【難しくて楽しい!この分野での応用はまだあまり見たことがありません]
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン