IT活用による建設産業の成長戦略を追求する「建設ITジャーナリスト」家入 龍太
イエイリ・ラボ体験レポート
Vol.48
ビッグデータ解析体験セミナー
【イエイリ・ラボ 家入龍太 プロフィール】
BIMやi-Construction、IoTなどの導入により、生産性向上、地球環境保全、国際化といった建設業が抱える経営課題を解決するための情報を「一歩先の視点」で発信し続ける建設ITジャーナリスト。「年中無休・24時間受付」をモットーに建設・IT・経営に関する記事の執筆や講演、コンサルティングなどを行っている。
公式ブログはhttps://ieiri-lab.jp

建設ITジャーナリスト家入龍太氏が参加するFORUM8体験セミナーのレポート。
新製品をはじめ、各種UC-1技術セミナーについてご紹介します。製品概要・特長、体験内容、事例・活用例、イエイリコメントと提案、製品の今後の展望などをお届けしています。

はじめに

建設ITジャーナリストの家入龍太です。今回の体験セミナーのテーマは「ビッグデータ解析」です。土木設計やVR(バーチャルリアリティー)、BIM(ビルディング・インフォメーション・モデリング)・CIM(コンストラクション・インフォメーション・モデリング)などのフォーラムエイト製品とビッグデータがどんな関係なのかと思う方もおられるでしょう。

しかし、都市や国土のインフラを計画し、建設し、維持していくためには、ビッグデータ解析が不可欠になりつつあります。というのは、膨大な数の人やクルマなどのユーザー面や、地震、水害などの防災面、そして建設やメンテナンスにかかるコストや労力などのリソース面を最適に満たすように優先順位や費用対効果を検討していくためには、膨大なデータをコンピューターの力によって解析するのが最も効果的だからです。

フォーラムエイト製品とビッグデータ

フォーラムエイトの製品の中でも、特にビッグデータと関係が深いのが、リアルタイムVRシステム「UC-win/Road」関連の製品です。例えば、ドライビングシミュレーターで運転した人の操作を記録した運転ログデータは、運転者の運転特性の分析や周辺の交通流に与える影響の分析などを行えるビッグデータになります。

これからの日本では少子高齢化がますます進み、人口がどんどん減っていく中、抜本的な生産性向上が求められています。昨年からは新型コロナウイルス感染症対策をきっかけに、非接触型の仕事のやり方やテレワークなどの働き方改革も求められています。それを実現するためには、インフラ分野をデジタル化し、クラウドによって共有、フィードバックするデジタルトランスフォーメーション(DX)しかないと言っても過言ではありません。

フォーラムエイトでは、道路やトンネル、橋梁の点検によって収集したデータからインフラデジタルデータベースを構築し、さらに国のDXセンターとの連携も視野に入れて活動しています。

▲社会インフラの情報をデジタル化し、クラウド上に収集することでビッグデータとして活用するイメージ   ▲ビッグデータ解析の結果を現場にフィードバックすることで最適な結果を実現できる

ビッグデータとは

ビッグデータとは文字通り「様々な形、性格、種類のデータの集合体」ですが、データの大きさ(Volume)、多様性(Variety)、発生頻度(Velocity)という3要素からなっています。

ビックデータが生まれる場所も様々です。「人と人」をつなぐ電話やメール、SNSなどがあり、「人と機器」をつなぐウェブ検索やeコマース、携帯ゲームや防災警報システムがあり、「機器と機器」をつなぐコンピューター数値制御データ、GNSS(全地球測位システム)、各種センサーやモニタリングシステムがあるといった具合です。

世の中のデジタル化が進むにつれ全世界が扱うデータ量は加速度的に増え続けています。具体例を挙げると、Googleは毎日24ペタバイト以上のデータ処理を行っています。1テラバイトのハードディスク2万4000個分のデータ量と言えば、そのすごさが想像できるでしょう。ある調査によると2020年代には、ペタ(Peta)バイトの1000万倍以上の「44ゼタ(Zetta)バイト」になるとも言われています。

ビッグデータはデータ量が毎日増え続け、データ構造も様々なので、従来のリレーショナルデータベース(RDBMS)による保存やバックアップが難しいことや、処理・解析・モデリングが難しいという課題があります。

これらの課題を解決するために、「Hadoop(ハドゥープ)」と呼ばれる分散処理型のフレームワークを活用する手があります。Hadoopとは、多数のコンピューターに小分けにした処理を割り振り、各コンピューターで処理された結果を回収して一つにまとめる方法です。Hadoopの制御下に置かれたコンピューター群が、あたかも一つの巨大コンピューターであるかのように振る舞い、ビッグデータを処理できるのです。

▲ビッグデータの3要素
体験セミナーの流れ

昨年の10月20日の午後1時半から4時半まで、Zoomによるオンラインセミナー「ビッグデータ解析体験セミナー」が開催されました。講師を務めたのは、フォーラムエイト UC-1開発第1Group長の中村淳さんと、システム開発Groupマネージャーの岡木勇さんです。

当日のスケジュールは、冒頭に中村さんがBIM/CIMの基礎知識や建設業のDXとの関係を解説した後、岡木さんにバトンタッチし、ビッグデータ解析の概要や事例を約30分解説しました。

その後、休憩をはさんで1時間20分ほど、「UC-win/Road」の運転ログデータや交通流シミュレーションデータをビッグデータとみなして分析体験を行いました。

そして最後にビッグデータの解析事例として、簡単なデータの可視化やUC-win/Roadとビッグデータの関係、道化整備効果の算出事例を紹介し、質疑応答で締めくくりました。

 
▲10月20日にオンラインで開催された「ビッグデータ解析体験セミナー」の様子
体験内容

様々な様式からなる大量のデータから、特徴や傾向などをつかみ取るために、今回のセミナーでは「R言語」という聞き慣れないツールを使いました。R言語はコマンドラインで様々なデータ処理を行うもので、「R Studio」というソフトを立ち上げて操作しました。

▲「R Studio」の画面   ▲R言語のコマンド例

まずはビッグデータの傾向を可視化するための実習から始まりました。「pl ot 関数」による簡単なXY軸の2次元グラフの作成や、「hclust関数」などで似ているデータを分類する「階層的クラスター分析」、さらに“rgl ”ライブラリによる3次元でのデータ可視化を行いました。

▲似ているデータを分類する「階層的クラスター分析」の結果   ▲“rgl”ライブラリによる3D表示の例

続いて、実際の土木構造物のデータを使って、ボックスカルバートの土被り厚と壁厚の関係をビッグデータ解析しました。フォーラムエイトの設計成果チェック支援システム「SystemA」からデータを読み込み、ボックスカルバートのデータを抽出します。

すると土被り厚と左右の合計壁厚のデータが2次元グラフとして表示されました。さらにR言語でデータを処理することにより、土被り厚や合計壁厚のほか、平均内空幅や内空高、内空幅高比をそれぞれ横軸、縦軸にとったグラフを一気に表示させました。多くのグラフを見ることで、データ間に相関関係がありそうかどうかを、視覚的に調べることができます。

▲横軸に土被り厚、縦軸にボックスカルバートの左右壁の合計厚をプロットしたデータ   ▲さらにデータの種類を増やして、X軸、Y軸を入れ替えて多数のグラフを表示させたところ

さらに、これらのデータを「K平均法」という手法でクラスターに分類しました。これによって、ボックスカルバートの条件によって設計傾向に違いがあることが見えてきます。

▲「K平均法」によるボックスカルバートのクラスター分類結果

続いて、天気のビッグデータ解析です。気象庁のウェブサーバーにアクセスして、天気データをダウンロードし、分析するものです。Excelなどの表計算ソフトでも行えますが、月ごとのデータをダウンロードしてコピー・アンド・ペーストし、分析するのは手間がかかります。

ここでは、汎用プログラミング言語の「Python」を使って、「ウェブスクレイピング」という手法によって必要なデータをサーバーから抜き出し、1年間の平均気温をグラフ化しました。ビッグデータ用のツールを使うことで、こうしたグラフをさっと作りながら傾向をつかむことができます。

▲プログラミング言語「Python」を使って作成した1年間の平均気温グラフ

操作研修はいよいよ交通流解析に移りました。「UC-win/Road」の走行データを使って、「急ブレーキ」についての調査を行いました。急ブレーキは接触事故の原因になるだけでなく、タイヤの消耗や燃費などに悪影響を与えます。ここではビッグデータから急ブレーキの原因が道路形状によるものなのか、他の自動車によるものなのかを検証しました。

運転ログのデータは、CSV形式のテキストデータになっており、1つのデータには時刻や各方向への速度や加速度、車体の傾き角、車線との距離など約60項目のデータが記録されています。ここから1台のクルマの情報を、ID番号を手がかりに抽出し、走行状態を追跡してみました。

今度は全車両を対象に急ブレーキをかけたデータを抜き出してみました。0.4G以上の加速度が発生したときに「急ブレーキ」とみなしました。急ブレーキが多い場所をUC-win/Roadのモデル上に表示すると、パーキングエリアの横の道路であることがわかりました。

▲赤枠内が0.4G以上の急ブレーキ発生が多い場所   ▲UC-win/Roadのモデル上で急ブレーキ発生多発地点を見ると、パーキングエリアの横の道路であることが判明した

実習の最後には、ビッグデータを使った道路整備効果の算出を講師がデモンストレーションしました。ある交差点に右折レーンを設置した場合、交通流がどれだけ改善されるのかを評価しようというものです。

交通シミュレーションだけでも、その交差点の渋滞長がどれだけ減少するのかといったことはわかりますが、ビッグデータ解析を使うことで、周辺を走行するクルマ全体の通過時間の減少や、渋滞の減少によるコスト改善の効果を定量的に評価することができます。

▲交差点に右折レーンを設ける前(左)と後(右)の交通流シミュレーション結果もビッグデータとして様々な投資効果の解析に使える

右折車線の設置前と設置後の交通流シミュレーション結果の分析には、Pythonで書かれたプログラムで1時間かかります。その結果は、とても興味深いものでした。右折車線を設けた結果、全ての車種で平均速度が向上したほか、1日当たりの走行費用も明らかに減ることがわかったのです。

▲ある交差点に右折車線を設置することにより、平均速度や走行費用が改善することが分かった

イエイリコメントと提案

ある交差点に右折レーンを設けると、その交差点だけでなく、他の各交差点における交通流や渋滞長にも影響を与えます。その結果、クルマ全体の平均走行速度や経済効果のほか、温室ガス排出量や急ブレーキの回数、さらにはタイヤの消耗など、これまでは考えられなかった様々な側面で投資対効果を検討することができます。

ビッグデータ解析で「全体最適」を追求していくことで、最善のインフラ投資が行えるようになりそうです。



前ページ
    
インデックス
    
次ページ
(Up&Coming '21 新年号掲載)
戻る
Up&Coming

FORUM8

LOADING