日経メディカルのロゴ画像

 Googleは9月3日、子会社Calicoが製薬企業のAbbVieと提携し、医薬品の開発に本格的に乗り出すと発表した。

 近い将来、Google発の医薬品が臨床現場に登場するのだろうか。しかも研究開発で狙うのは、神経系や癌など誰もが創薬は難しいと感じている分野だ。どれだけ期待できるのだろうか。

「創薬」で新たなビジネスチャンスを狙うIT企業
 「ビッグデータ」の時代を迎え、データの扱いに慣れたIT企業が熱い視線を送っているのが「創薬」だ。今や、医薬品開発とITは切っても切れない関係になっている。

 創薬は大きく3つの工程からなる。(1)医薬品が攻撃する標的となる蛋白質の探索、(2)その蛋白質にうまく結合して医薬品としての機能を持つ化合物の設計・合成、そして(3)動物試験やヒトでの臨床試験──。近年、3つの工程全てにおいて、ヒトが処理することができないほどの大量のデータ、いわゆるビッグデータを扱うことが主流となりつつある。

 まず標的の探索には、ヒトのゲノム情報を利用し膨大なデータを解析する方法が盛んだ。そして探索された標的の蛋白質にがっちりと結合し、蛋白質の動きを止める化合物の設計は、全てを実験で確かめることは不可能であるため、コンピューターシミュレーションが使用される。標的蛋白質と医薬品候補化合物を構成する原子1つ1つの分子間相互作用を計算し、結合の強さを予測するものだ。ここでは、スーパーコンピューターが用いられる。

 複雑な生体内の現象を精度よくシミュレーションするためには、標的蛋白質と化合物の相互作用を計算するだけでは足りず、体内で存在する水分子も考慮して膨大な計算を行う必要性が指摘されている。処理するデータの規模は、処理能力が国内で最高のスーパーコンピューターの「京」を使っても、150個の化合物と標的蛋白質の組み合わせを計算するのに1週間程度掛かり、現場での使用が現実的ではないといわれるぐらい膨大なものだ。

 臨床試験でも、ゲノム情報を大量に蓄積したバイオバンクを検索し、副作用がなく薬効が見込める患者を絞り込んで臨床試験を行う取り組みが始まっている。

 例えば米IBM社は、標的蛋白質の探索過程で強みを発揮する。人間の脳のように経験から学び、膨大な情報を関連付けて仮説を立てながら処理できるコンピューター「ワトソン」を開発し、7万の科学論文データを解析して有望な標的蛋白質を数週間で6個発見した。研究者が同様の蛋白質を発見するのに平均1年掛かるといわれているという。
  

この記事を読んでいる人におすすめ