<h2><strong>【コンピュータが言語を理解するしくみ】</strong></h2><strong>ChatGPTに代表される大規模言語モデルの解説書が発売!!
</strong> ChatGPTに代表される大規模言語モデルが自然言語処理の幅広いタスクで高い性能を獲得し、大きな話題となっています。
大規模言語モデルは、大規模なテキストデータで訓練された大規模なパラメータで構成されるニューラルネットワークです。
2020年以降、自然言語処理や機械学習の知見をもとに、パラメータ数とテキストデータの拡大により、性能が飛躍的に向上しました。
Hugging Face社の"transformers"というPythonライブラリを利用することで、プログラミングの経験があれば、モデルの操作やデータからの学習がかんたんにできます。
モデルを訓練するための日本語もしくは日本語を含む多言語のデータセットも充実してきており、すぐに業務に使える実用的なモデルを作ることが可能な時代がやってきました。
本書は、大規模言語モデルの理論と実装の両方を解説した入門書です。
大規模言語モデルの技術や自然言語処理の課題について理解し、実際の問題に対処できるようになることを目指しています。
以下のような構成によって、理論とプログラミングの双方の側面から、大規模言語モデルに関する情報を提供します。
<h2><strong>■こんな方におすすめ
</strong></h2>・大規模言語モデルに興味のあるエンジニア、学生、研究者
<h2><strong>■目次
</strong></h2><strong>第1章 はじめに
</strong> 1.1 transformersを使って自然言語処理を解いてみよう
1.2 transformersの基本的な使い方
1.3 単語埋め込みとニューラルネットワークの基礎
1.4 大規模言語モデルとは
<strong>第2章 Transformer
</strong> 2.1 概要
2.2 エンコーダ
2.3 エンコーダ・デコーダ
2.4 デコーダ
<strong>第3章 大規模言語モデルの基礎
</strong> 3.1 単語の予測から学習できること
3.2 GPT(デコーダ)
3.3 BERT・RoBERTa(エンコーダ)
3.4 T5(エンコーダ・デコーダ)
3.5 多言語モデル
3.6 トークナイゼーション
<strong>第4章 大規模言語モデルの進展
</strong> 4.1 モデルの大規模化とその効果
4.2 プロンプトによる言語モデルの制御
4.3 アライメントの必要性
4.4 指示チューニング
4.5 人間のフィードバックからの強化学習
4.6 ChatGPT
<strong>第5章 大規模言語モデルのファインチューニング
</strong> 5.1日本語ベンチマーク:JGLUE
5.2 感情分析モデルの実装
5.3 感情分析モデルのエラー分析
5.4 自然言語推論・意味的類似度計算・多肢選択式質問応答モデルの実装
5.5 メモリ効率の良いファインチューニング
5.6日本語大規模言語モデルの比較
<strong>第6章 固有表現認識
</strong> 6.1 固有表現認識とは
6.2 データセット・前処理・評価指標
6.3 固有表現認識モデルの実装
6.4 アノテーションツールを用いたデータセット構築
<strong>第7章 要約生成
</strong> 7.1 要約生成とは
7.2 データセット
7.3 評価指標
7.4 見出し生成モデルの実装
<strong>第8章 文埋め込み
</strong> 8.1 文埋め込みとは.
8.2 文埋め込みモデルSimCSE
8.3 文埋め込みモデルの実装
8.4 最近傍探索ライブラリFaissを使った検索
<strong>第9章 質問応答
</strong> 9.1 質問応答システムのしくみ
9.2 データセットと評価指標
9.3 ChatGPTにクイズを答えさせる
9.4 文書検索モデルの実装
9.5 文書検索モデルとChatGPTを組み合わせる
参考文献
<h2><strong>■著者プロフィール
</strong></h2><strong>山田 育矢
</strong>(やまだ
いくや):株式会社Studio Ousia代表取締役チーフサイエンティスト・理化学研究所革新知能統合研究センター客員研究員。
2007年にStudio Ousiaを創業し、自然言語処理の技術開発に従事。
大規模言語モデルLUKEの開発者。
<strong>鈴木 正敏
</strong>(すずき
まさとし):株式会社Studio Ousiaソフトウェアエンジニア・東北大学データ駆動科学・AI教育研究センター学術研究員。
博士課程では質問応答の研究に従事。
日本語質問応答のコンペティション「AI王」の実行委員。
東北大学が公開している日本語BERTの開発者。
<strong>山田 康輔
</strong>(やまだ
こうすけ):株式会社Studio Ousiaリサーチエンジニア・名古屋大学大学院情報学研究科博士後期課程3年。
2021年3月名古屋大学大学院情報学研究科博士前期課程修了。
2022年4月より日本学術振興会特別研究員 (DC2)。
自然言語処理、特にフレーム意味論に関する研究に従事。
<strong>李 凌寒
</strong>(り
りょうかん):LINE株式会社(2023年10月よりLINEヤフー株式会社)自然言語処理エンジニア。
博士課程では言語モデルの解析や多言語応用の研究に従事。
大規模言語モデルmLUKEの開発者。
画面が切り替わりますので、しばらくお待ち下さい。
※ご購入は、楽天kobo商品ページからお願いします。
※切り替わらない場合は、こちら をクリックして下さい。
※このページからは注文できません。
0.0 (0件)