AI医療を考える:そのツケは誰が払えばいいのか

AI医療を考える:そのツケは誰が払えばいいのか

今後ますます発展していくであろうAIは、当然医療機器分野でも同じ。

それに関しては国の取り組みからもわかりますし
、そして、薬機法の適応内にAI技術が取り込まれていることもまた、
その可能性は当然であるという証拠です。

すでに、AIを搭載して医療機器も厳然として存在します。

もちろんそこには、人間では到達し得ない高度な医療と、
また、人手不足という世界共通であり日本においては喫緊の課題を解消する希望もあります。

しかし、同時に、懸念もあるのだと忘れてはいけません。

AIは人を超えるが人に寄り添わない

AIは人を超える。

かつてはSFの分野でしか言われなかった言葉も、
今ではもはや世界の共通認識になっています。

しかし、いくら人を超えても、AIは人には寄り添いません。

AIは正解を導くために人智を超えている

なぜAIは人間を超えるのか。

この答えは案外簡単で、それは、
人間では到底処理できないほどの膨大な情報を一度に処理をすることができるからにほかなりません。

将棋であれば、AIはもはや人間に負けることはありません。

ではなぜ、AIが将棋において人間に負けないかといえば、
それもそのはずで、AIは過去の将棋の対戦における棋譜をすべて記憶しているんですね。

それを、人智を超えるスピードで処理し、最善の一手を指す。

まさに、人間を超えるべくして超える理屈です。

人智を超える、それは人間には理解できないということ

AIは人智を超える情報処理能力を持つ。

これこそが人間がAIにかなわない最大の理由なのですが、
これをよく考えてみれば、それは言いかえると、
AIが何を考えているのかは人間にはわからないということなんですね。

なにせ人智を超えているんです、わかりようがありません。

そして、いかに高度なAIであろうと、自分の処理した情報のすべて、たどり着くまでの道のり、
そしてその正解を導いた理由を人間に説明はできません。

理由は簡単、言っても理解できないからですね。

人間は理由のないものを恐れる

目の前になにかよくわからないけれどものすごく美味しい料理があります。

それがものすごく美味しいことはわかっているのですが、
調理方法はおろか、それが肉なのか野菜なのか、
肉であったとしてなんのどこの肉なのかわかりません。
あなたはこれを食べますか?

と、問われれば多くの人は「食べるわけがない」と答えるのではないでしょうか。

それこそ、生産者の顔が見える野菜が喜ばれるように、
人間というのは得体のしれないものがどんなに有益であってもそれを恐れるんですね。

AIは人を超えるが人に寄り添わない。

それは、この部分に関してAIが大きな問題を抱えているということです。

AIが作る人に寄り添わない医療

AIが作る、あまり好ましくない医療の一つの可能性です。

インフォームドコンセントが成り立たない

まず、AIが医療の中心を担うことになれば、
インフォームドコンセントという概念が非常に危うくなります。

インフォームドコンセントとは、簡単に言えば治療に対して十分な理解を得て、
自由選択によって患者の望む医療を選択するための説明をすること、です。

しかし、AIによる医療行為においては、これは意味をなさない可能性があります。

というのも、何を説明しても「そのようにAIが判断したから」ということになってしまっては、十分な説明とは言えません。

自由選択とはとてもいいがたい状況です。

医療の責任がわかりにくくなる

AIによる医療が中心となれば、誰にも説明できない医療が始まる。

というのは、流石に大げさだと思われるかもしれませんが、
しかしながらAIが人間を超えるのが確定的ないま、それはSFの絵空事ではありません。

そしてそれは、医療の責任というものにも大きく関わってきます。

というのも、AIが発展していけば限りなく正解をみちびく医療が完成するとはいえ、
相手は人間ですし、AIも100%ではありません。

そう、AIによる医療過誤や医療事故をどう考えるのか、ということです。

AI医療の責任を考える

ではAI医療の責任はどこにあるのでしょうか?

AIを中心とした医療による医療過誤。

これが起こった場合、
果たしてその責任を取るのは誰になるのでしょうか。

医師の責任(使用者責任)

ひとつには、医師というのがあるでしょう。

つまりは、AIを搭載した医療機器を使い診断をし治療をした使用者ということになるのですが、
AIが人智を超えている時、使用者に責任はあるといえるでしょうか。

なぜなら、医師ですら、なぜそうしたのかがわからないのです。

例えば、このことで裁判が起こった場合、
いまであれば「なぜそういうミスに至ったのか」が争点になりますが、
AIの場合争点は存在しないことになります。

これでは責任を問えないのです。

医療機器メーカーの責任(製造責任)

もしくは、医療機器メーカー、つまり製造責任者です。

AIは人工知能とはいえ大きく見れば機械ですから、
間違いなくそれはプログラムも含めて医療機器であり、
それが起こした事故ならメーカーの責任が問われるということもあります。

しかし、AIは学習により成長します。

作った本人ですらなぜそうしたかわからない、
もしくは手放した瞬間から勝手に成長を始める機械に製造者の責任を追求できるのかは微妙なラインです。

親に成人した子供の犯罪の責任は取れるのか、
と同根であるともいえます。

患者の責任(選択責任)

こうなってくると、最悪、患者の責任という場合も考えられます。

では何に対する責任かといえば、要するに、そのAI治療を選択したという、
選択責任と位置づけられる可能性もあるということ。

じつは、これ、一見ひどいように見えますが可能性は小さくありません。

なぜなら今後「医療による過失に対して責任は負いかねます」などという但し書のついた医療を提供するものがでない、
もしくはそれを是とする国がでないとは限らないからです。

AIのなす事の理由は誰にもわからないのです。

最後は、それを選んだあなたが悪い、という展開も無理ではないのです。

シンギュラリティの前に知っておくこと

これは何も医療だけではなく、すべての業界で考えられること。

そして、人の命に直接アクセスする医療業界においては、
この問題はさらに深刻なものと捉えられています。

しかし、AIが爆発的に発展し人間を凌駕するシンギュラリティは起こるのです。

医療機器業界を考えるとき、AIをどう位置づけ、それに何を求めるのか、
もう一度きちんと考えるべき時が来ているのかもしれないですね。

品質マニュアル

ISO13485:2016+QMS省令対応の品質マニュアルのお求めは、上の画像をクリックして下さい。

コメントする

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA


日本語が含まれない投稿は無視されますのでご注意ください。(スパム対策)

上部へスクロール