本レポートは、2021年4月12日にARK社のHPに公開された、英語による「Newsletters_#265」の日本語訳です。内容については英語による原本が日本語版に優先します。また、情報提供のみを目的としたものです。
Neuralink(ニューラリンク)社は、神経疾患の治療を目的とした埋め込み型のブレイン・マシン・インターフェイスを開発中です。これまでに、同社はブタの脳活動をキャプチャする能力を実証してきました。
今週、Neuralink社は、一匹のサル(猿)が脳だけを使ってコンピュータ上でピンポンゲームをしているビデオを公開しました。この目的を達成するために、Neuralink社はこのサルの運動野(脳の中で動作を計画し、実行する機能を持つ部位)に2つのデバイスを埋め込みました。ご褒美としてバナナスムージーを与えられたサルは、まずジョイスティックを使ってカーソルを操作し、スクリーン上のゲームを楽しみました。Neuralink社は、サルがゴールとご褒美に向かってカーソルを動かしたときに、どのニューロンが発火するかを追跡することで、脳の活動だけでサルがリアルタイムにカーソルを操作できるようにする予測モデルを構築したのです。
Neuralink社によると、まず最初の目標は、麻痺のある人たちにデジタル上での自由を与え、テキスト入力やウェブ検索、アート作品の制作やビデオゲームで遊んだりできるようにすることです。そして、次第に、彼らが身体的な運動能力を取り戻すことを目指しています。
ARKは、一部の神経科学者がNeuralink社の業績を軽視し、イーロン・マスクのような「部外者」を退けたことに驚いてはいません。皮肉なことに、Newralink社は何十年にもわたる神経科学の研究成果を活用しているのです。ARKは、脳に埋め込む電極の数を桁違いに増やすことができるNewralink社の機能により、この分野を他よりもはるかに早く進歩させることができると考えています。
先日、アメリカ食品医薬品局(FDA)は、民間企業であるBluestar Genomics社が開発したリキッドバイオプシー(液体生検)を用いた膵臓がんスクリーニング検査に対し、Breakthrough DeviceDesignation(FDA指定の画期的なデバイス)を付与しました。Bluestar Genomics社はスタンフォード大学出身の精密エピゲノム研究者たちにより設立されました。
GRAIL社やExact Sciences社(EXAS)の検査とは異なり、Bluestar社の検査は、5-hydroxymethylcytosine(5hmC)と呼ばれるバイオマーカーに焦点を当てています。5hmCは、ゲノムのエピジェネティックな変化を知らせるもので、がん専門医にがんの存在を知らせることができます。
エピジェネティックな変化とは、DNAの表面が化学的に変化することで、ゲノムの綴りを変えるのではなく、体が自分自身のDNAを解釈することで変化することです。ARKは、以前にGRAIL社の検査の原動力となっている、より一般的なエピジェネティックな変化である5mCについて書きました。
興味深いことに、5mCとより希少な5hmCは関連しています。他の生化学的プロセスと同様に、DNAのメチル化(および脱メチル化)には一連のステップを伴います。ここに示されているように、5hmCは周期的なプロセスにおける中間反応です。Bluestar社の研究者は、5-fCのような他の反応中間体とは異なり、5hmCは体内でより安定していると指摘しています。5mCは遺伝子発現を抑制しているように見えますが、多くの研究者は5hmCが遺伝子発現を増強すると考えています。
Bluestarは別の論文で、数十種類の組織において、ゲノムの機能領域やコード領域(エクソン)の近くに5hmCが集約されていることを示し、5hmCが組織特異的な遺伝子の活性化に重要な役割を果たしているという仮説を支持しています。Bluestar社は、例えば、EGFR、Notch、およびBRCAなどの主要ながん経路に5hmCが存在することを指摘しています。
私たちは、機能的なゲノム領域に5hmCがクラスタリングされることで、機械学習モデルのトレーニングが加速されると考えています。とはいえ、このバイオマーカーが疾患の進行に果たす役割については、まだ多くのことがわかっていません。例えば、5hmCの配列決定は困難です。次世代シーケンサーで5hmCを読み取るための知的財産権の大半は、数社が独占して所有しています。
最近のブログ記事で、OpenAIは同社のGPT-3自己回帰型言語モデルが、ディープラーニングの重要なマイルストーンである300以上の商用アプリケーションで、1日あたり45億語を生成していると発表しました。人工知能(AI)の専門家によると、GPT-3(Generative Pre-trained Transformer 3)は、これまでに構築された中で最も強力な言語モデルです。
GPT-3は、約5,000億語を学習した1,750億個のパラメータを持ち、ディープラーニングを用いて多様なテキスト生成タスクに対応しています。GPT-3は、例えば、食材のリストがあれば、レシピを生成することができます。また、カスタマーサポートを案内するチャットボットとして機能したり、テキストコマンドをSQLコードに変換したりすることもできます。
言語モデルの性能には、ニューラルネットワークのサイズが重要であるという研究結果があります。例えば、人間の脳には、少なくとも100兆個のシナプス(脳版パラメータ)があります。GPT-3の前身であるGPT-2のパラメータは15億個でしたが、他の多くの言語モデルのパラメータは10億個以下でした。つまり、GPT-3は、前作の115倍以上の大きさでありながら、人間の脳の0.175%の大きさしかないのです。
パラメータや学習データを追加しても、その価値は時間の経過とともに漸減していくと考えられますが、収益が減少するポイントは、はるか先のことのようです。目先の課題は、膨大な量のトレーニングデータの確保です。GPT-3の学習データには、インターネットで公開されているテキストのほとんどが含まれていました。現在、独創的な研究者たちが、ポッドキャストやビデオの音声を変換してデータを作成しています。この研究の具体例として、Spotifyは最近、10万件のポッドキャストからオーディオテキストのデータを公開しました。
先日公開したブログでは、ビットコインのファンダメンタルズを、従来の資産では考えられないほど深く分析するためのフレームワークを紹介しています。以下に示すように、3層のピラミッドでその深さを特徴付けます。下の層は、上の層の構成要素として機能します。
第1部では、ピラミッドの最下層にあるデータを詳細に分析し、ビットコインのネットワークの健全性を評価しました。第2部では、中間層のデータに焦点を当て、ビットコイン保有者のポジションとコストベースを評価しています。
ARK’s statements are not an endorsement of any company or a recommendation to buy, sell or hold any security. For a list of all purchases and sales made by ARK for client accounts during the past year that could be considered by the SEC as recommendations, click here. It should not be assumed that recommendations made in the future will be profitable or will equal the performance of the securities in this list. For full disclosures, click here.