文字サイズ

    「画像メディア処理技術に基づく医療分野における診断・治療支援の最前線」

    名古屋大情報基盤センター 森健策教授

    • 図1
      図1
    • 図2
      図2

     画像処理の技術を使って、医療分野でどのように診断や診療を支援しているかを話したい。最近、人工知能や機械学習が話題になっているが、実は、昔からずっと研究されていた。機械学習というのは、膨大なデータを基にそのパターンを認識する方法だが、1980年代後半に既に確立している。

     コンピューターが人体を認識するとき、大事なのは解剖構造を把握することだ。つまり、コンピューター断層撮影法(CT)の画像から、臓器がどこにあるか、どんな形をしているか、血管はどのようにつながっているか、その血管は何という名前か、などを把握することだ。また、がんを探す場合は、がんの場所を見つけるのは当然で、がんと同時に取るべきリンパ節を見つけることも大事になる。

     CTの画像はどうすればわかりやすくなるのか考えてみたい。たとえば、衛星写真や航空写真をもとに、我々は目的地にたどり着けるだろうか。航空写真を手渡されて、ここに歩いて来てくださいと言われても、非常にわかりづらい。でも、地図になっているとわかりやすい(図1)。道路があり、その道路が別の道路とつながっていて、それぞれの道路にきちんと名前が付いている。目印もあり、どういうルートをたどればよいかがわかりやすい。翻ってCT画像は、単なる白黒画像だ。この血管が何という血管か、最初から文字が書いてあるとよいが、そんなことはない。医師はどこに何があるかを学んだうえで、トレーニングを積んでいるので理解できるが、コンピューターに入ってくるのは画像だけだ。

     そこで、機械学習などを使った画像認識の出番になる。画像上での解剖と言ってもよいかもしれない。一つの目標としては、解剖学の教科書に載っているような絵を、患者ごとにCTの画像から作りたい。でも、そのために考えなければならないことは多い。たとえば人体には、肝臓や膵臓などの臓器がある。ただ、その形は人によって千差万別だ(図2)。統計学的に見ると、平均的な肝臓の形というものはあるが、平均から離れると形はどんどん変わってしまう。これを統計学の手法で解析していく方法も開発されているが、人によって臓器の形が違うことを考慮して、コンピューターに認識させるのが難しいところだ。

     もっとやっかいなのは、血管の分岐構造が人によって異なることだ。たとえば胃の周囲にある血管は、人によって静脈と動脈の位置関係が異なっている。ある人は前に静脈があり、後ろに動脈があるが、別の人ではその順番が逆転している。血管を切っていくときに間違ってしまうと大問題になる。医師はもちろん十分にトレーニングして手術に臨んでいるので把握しているが、医師を支援するコンピューターもそうした情報を正しく認識することが重要になる。

    • 図3
      図3
    • 図4
      図4

     では、外科手術をどのように支援できるだろうか。イメージしていただきたいのは、カーナビゲーションシステムのようなものだ。手術では、胃カメラ、気管支鏡、大腸内視鏡のようなシステムを使う。そのナビゲーション方法もいくつかある(図3)。まずは、位置表示型と言って、内視鏡やハサミのような鉗子がどこにあるかを教えてくれるもの。次に、対応画像表示と言って、内視鏡に対応した仮想的な画像を見せてくれるもの。さらに、挿入ナビゲーションというものもある。これは、たとえば気管支鏡を使うとき、目指す場所にどのようにすればたどり着けるかをナビゲーションしてくれる仕組みだ。気管支は枝分かれしているので、気管支鏡を見ながら、どちらの枝に行けばよいかをコンピューターが教えてくれる。

     このようにナビゲーションを実現する上で重要なのは、患者さんごとに地図を作ることだ。その地図は、様々な情報を盛り込んでいなければならない。カーナビで考えると、どの建物がどこにあるかという情報が必須なのと同じ。まずは臓器の領域についての情報が必要だ。白黒のCT画像から、どこに臓器があるかを抽出して、その名前も表示する。血管の違いもコンピューターで認識し、どれが動脈でどれが静脈かなど、名前を書いておくと区別しやすい。現段階ではまだ間違いもあるが、コンピューターが名前を入力してくれる仕組みもできている。

     同じく重要なのは、現在地を把握すること。つまり、内視鏡がいまどこにいるのかを知る方法だ(図4)。大きく分けて2種類の方法がある。一つ目は、センサーを使う方法だ。手術室の中でGPS(全地球測位システム)のような仕組みを使って位置を計測する方法や、磁気センサーで内視鏡の位置を把握するものだ。もう一つは、CTで得られたデータから作成した画像と、実際に内視鏡が写している画像を比較して、どこにいるかを見極める方法だ。仮想的に作られた画像と、内視鏡画像をマッチングしながら、カメラがどこを捉えているか、その位置を探ることができる。

     画像からの現在地の把握は、人工知能や機械学習が鍵になる。昔はうまくいかないことも多かったが、最近はコンピューターの計算能力が上がり、メモリーも記憶できる量が増えているので、膨大なデータを問題なく扱えるようになってきた。それがいまの機械学習のブームにつながっている。

    • 図5
      図5
    • 図6
      図6

     画像情報を使って手術を支援する話をしてきたが、現場の医師たちは、より直観的に立体感を把握しやすい方法を求めている。そこで3Dプリンターの出番だ。たとえば3Dプリンターで肝臓を再現すると、どこに血管があり、どこに腫瘍があるかが、手にとって分かるようになる(図5)。こうした医療応用は20年ほど前から研究されてきたが、特に近年、医療現場でブームになっている。3Dプリンターが低価格化したことと、操作が楽になって特別な装置ではなくなったこと、画像処理の技術が進化して細かなデータをたくさん扱えるようになったことなどが、理由として挙げられる。

     3Dプリンターを使うことの利点は、手術の現場で特別な装置を使わずに、再現した臓器を見るだけで形状が正確に把握できることがある(図6)。持ち運びも容易で、手術室で手術中に議論する際にも使いやすい。手術前の患者に対するインフォームド・コンセント(説明と同意)でも使うことができる。普通は絵を描いて説明することが多いと思うが、模型を使って説明すると、患者も理解しやすい。

     このように様々なアプローチで、臓器の形をうまく把握して、手術を支援する取り組みが始まっている。今回は臓器の形について見てきたが、病気も時間とともに変化するため、そうした時間変化をどう捉えるかも重要だ。全体像を把握したいのか、もっと微細な構造をはっきりと見たいのかによっても、方法は異なる。こうした要求を、コンピューターで解決する方法を探っている。今後、IT医療と呼べるようなこうした分野が発達してくるだろう。ただ、まだ始まったばかりなので、体系付けられた教育を受けた外科医との間に、ギャップが出てくる可能性もある。そうした技術的な課題もきちんと解決しながら、研究を進めていきたい。

    森健策(もり・けんさく)
     1992年名古屋大工学部卒。同大大学院工学研究科修了。工学博士。同大助教授、米スタンフォード大客員准教授などを経て、2009年から現職。

    【質疑応答】

      説明にあったような3Dプリンターを置いている病院はどれくらいあるか?

      研究で使っているところはあるが、病院の現場で使っているのは一部の大学病院などに限られる。まだ両手で数えきれるほどしかないだろう。

      3Dプリンターで臓器を作るというのは、産業として成り立つのか。

      請負サービスとしてやっている業者を、少なくとも3~4社知っている。依頼すると20万~30万円で作ってくれる。そろそろ産業として成り立つようになってきているのではないか。

     

     ◇知の拠点セミナー 全国の国立大学が共同で利用する研究拠点の成果を一般向けに紹介する連続講座。毎月1回、東京・品川で開いている。日程や参加申し込みは、セミナーのホームページへ。

    2016年01月26日 Copyright © The Yomiuri Shimbun
    おすすめ
    PR
    今週のPICK UP
    PR
    今週のPICK UP

    目力アップ♪

    疲れをほぐして、イキイキと!