連載第19回は、ここ最近、AI関連でもっぱら話題となっている「ChatGPT」をはじめとする大規模言語モデル(LLM)の仕組みと、建設領域での可能性についての考察です。
ChatGPTなどの大規模言語モデルが巷をにぎわせています※1。今回は、「大規模言語モデル」の原理となる「Transformer(トランスフォーマー)」と、建設領域での活用例について紹介します。
大規模言語モデル(LLM:Large Language Model)は、Transformerと呼ばれる深層学習の方法が基本となっています。Transformerは、2017年に提案された比較的新しい手法です※2。重要な部分を強調する「アテンション(Attention:注意機構)」を利用して、並列処理により、高い学習効率を実現しています。
連載14回では、画像でのアテンションを取り上げましたが、言語のアテンションとは、文章の前後関係や翻訳や会話などの対となる文章から、単語間の関連度や注目度を抽出するものです。大規模言語モデルは数十億以上のパラメータを持っており、大量の言語データで学習を行うことで優れた性能を発揮します。規模を大きくすれば大きくするほど精度も高まる傾向があると報告されており※3、ますます規模を拡大して発展を続けています。
★連載バックナンバー:
本連載では、土木学会 AI・データサイエンス実践研究小委員会 副委員長を務める阿部雅人氏が、AIと土木の最新研究をもとに、今後の課題や将来像について考えていきます。
災害の際に、いち早く被害の状況を把握できれば、救助や支援の大きな力となるでしょう。SNSの情報には、災害の状況把握や被災者の救助に役立つ情報が含まれていることがあります。
文献5では、Transformerの一種「BERT」という手法をSNSの投稿に適用して、災害に関係のあるものを分類しています。下図は、災害に関係あると分類された投稿について、各単語のアテンションスコアの程度に応じて赤色が濃くなるように可視化したものです。伝えたい情報の時間や住宅が水に浸(つ)かっている点など、人間にとって重要な単語に注目していることが分かります。
さらに下図左は、地図上に、分類して得られた災害に関する投稿の位置を表示したものです。下図右の台風の経路に沿って、投稿数が増えていることが確認できます。
Copyright © ITmedia, Inc. All Rights Reserved.