布留川氏の情報収集のルーティーン

布留川英一氏:このあたりまででOpenAIの最新情報(の話)をやりました。ここからが後半で、「最新技術情報のキャッチアップ術」を始めようかと思います。

最新情報のキャッチアップ術ということで、1つ目が情報収集。そして、デモを試す。記事を書く。本にまとめる。アプリケーション開発という、自分がふだんやっていることを紹介していこうかと思います。万人に合っているかどうかわかりませんが、参考にしてもらえればと思います。

最初は情報収集です。毎日の情報収集のルーティーンだと、朝起きたら海外からの新情報を得る。海外はいつもだいたい2時、3時ぐらいにいい感じの情報が出てくるので、朝5時ぐらいに起きたらいい感じの情報がだいたい並んでいます。そのあたりを読むのが、朝起きてからの情報収集になっています。仕事の時は、仕事の休憩時にちょくちょく調べたりしています。

夜寝る前は、日本の人が家に帰ってきていろいろ記事を書いたりするので、それを読んだりしてまとめる。

この情報収集の時に具体的にやっていることが、おもしろそうなものを見つけたらデモを試して、「これはみんなに勧めたほうがいいな」と思ったら記事を書くみたいな、そんな感じのことをやっています。

自分が情報収集の一番メインで使っているのは、XというかTwitterですね。やはりTwitterが一番多くAI研究者と開発者が情報を発信しているので、自分が見たい人たちがやっているところということで、Xは外せない感じです。

「Xは使いにくいからほかのところにいく」とかそういうこともありますが、もし行ったらAIの研究者や開発者の人たち(からの発信)が見えなくなっちゃうんだと(なると)、Xから離れられないなということで、Xだけになっています。

Xのキーワード検索を多用する

あと、キーワード検索はだいぶ多用しています。Twitterとかだと見たページ(次第)でレコメンドが強くなりそうなんですが、体感的には、自分しか検索しないような新しい技術のキーワードをたくさん入れておくと、そういう人たちの情報が並ぶ感じがします。キーワード検索すると、自分の好みの技術情報が並ぶんじゃないかなと思ったりしています。

あと、「Spotify」もキーワード検索をすることで、だいぶ自分の好みが並んだので、レコメンドは意外と何を見ているかよりキーワード検索じゃないかなと個人的には思っています。実際はわからないんですが、自分のXとかSpotifyは完全に自分の色に染まっているので、キーワード検索を多用するのはけっこういいんじゃないかなと思います。

ということで、自分のXのレコメンドはけっこう優秀です。ほかの人のところだと見たくないものがいろいろ流れてくるとか聞いたりするんですが、自分のだと、研究者の投稿ばかりが流れてくる感じになっています。

X以外でチェックしている情報収集先

X以外の情報収集先で、ブログだと「Open AI Blog」。たぶんみんな見ていると思いますが、「Hugging Face Blog」はとにかくおもしろい記事があって、よく更新されるのでしょっちゅう見ています。あと、「LangChain Blog」と「LlamaIndex Blog」も常にAIエージェントの最先端がいろいろ見られるので、このあたりをすごく見ています。

けっこうTwitter上でも流れているんですが、Twitter上だとちょっと細かくて。Hugging Face BlogとLangChain BlogとLlamaIndex Blogは、そのあたりをけっこうまとめてくれているのでお薦めです。

Discordも楽しみながら見ている

「GitHub」はどちらかというと、自分が使っているAI関係のアプリケーションについての会議では、GitHubのIssueとかをよく見ています。一番有名な「Llama.cpp」は、GitHubのIssueを覗くと「今、何をやっている」とか「あの技術はいいぞ」とか、そういうおもしろいことがいつも起こっているので、けっこう楽しみに見ています。

あと「Discord」はたくさん見ています。たぶん一番タメになると思うのが「ローカルLLMに向き合う会」のDiscordで、常にいろいろな情報が流れていておもしろいです。

Discordは山のように入っているんですが……。なにかイベントが起きたら祭りみたいになっているので、そうしたら(その時には)そのDiscordを見るみたいなことをよくやっています。

まずDiscordで最先端情報がいろいろ出てくるので、そのあたりで「今度の新機能は、こんなのが出るぞ」ということを聞いたら、新機能をワクワクしながら待つということができるかと思います。

情報の取捨選択をするには、自分の価値関数を磨いていくしかない

ブログとかDiscordとかを見てわからない技術情報があった場合は、ChatGPTに聞きながらいろいろ解説してもらいます。

ChatGPTは最新のAI情報とかはちょっと苦手ですが、自分があまりやっていなかった分野の昔の技術情報とかが重要になってくる場合も多いので。そういう、自分がわからない昔の技術情報を解説してもらいながら、Discordとかブログのいろいろな話をよく読んでいます。

いろいろな情報を待っているような環境を作るという人もいるかもしれませんが、自分は常に欲しい情報を自分から探しにいく感じでやっています。

あまりにも情報がたくさんあると、情報の取捨選択をしないといけないんですが、情報の取捨選択をするには、自分の価値関数を磨いていくしかないかと思います。

何をもってその価値があるかというのは、やはり自分の興味関心を軸にするしかないかと思います。だから、「いい情報を集めたい」といっても、自分がいい情報と思うのはどんな情報なのかがわかっていないとなかなか集まらないので、まず自分が「こういう情報が欲しい」ということを考えるところが先なんじゃないかなと思います。

(スライドを示して)下のほうに書いたんですが、自分の最終的な目標としては、「物理世界で働くAIロボットにつながる技術を知りたい」ということで、物理世界より電脳世界での学習のほうが簡単なため、まず電脳世界でのAIの学習が必要になるだろうということで、空間コンピューティングが必要になるだろう。

あと、視覚も聴覚も触覚も必要になるだろうから、マルチモーダルも勉強しなくちゃな。あと、実際にロボットでLLMというか、そういうAIを使うとしたら、もっとリアルタイムの反応が必要で、20fpsとか30fpsとかで推論を回したいので、高速推論が必要になるだろう。AIの学習には学習データが必要だから、AI生成が必要だろう。

そんな感じで、それにつながる細かい技術のいろいろなキーワードを全部覚えて、そのあたりでなにか新しいものが出ていないかを常に探しにいくみたいな感じでやっています。

逆に、ロボットといってもハード関係はほかの人にお任せみたいな感じでやっているので、そのあたりは何があるかだけを追いかけて、実際の中のほうはそんなに追いかけないような感じでやっています。

技術記事はトップダウンで読む

「技術記事の読み方」です。技術記事の読み方、これは自分が大学に入った時に最初に習ったやつなんですが、技術記事の読み方は、トップダウンで読むということが基本になっています。

小説とかだと前のほうから順番に読んでいくのが普通ですが、トップダウンで読むとなると……。まぁ「はじめに」はとりあえず最初に読むんですが、その後は目次、見出し、小見出しだけを読む。中身は読まずに、見出しだけをひととおり読む。

その後に、小見出しと最初の1文だけを読む。もしそれ以上読むんだったら最後まで読むという、そんな感じで順番に読んでいきます。時間がなかったら、目次と見出しだけ読んだだけで「もうこの論文は読んだ」みたいな感じで完了します。

とりあえず読んでおくと、後で「そういえば、あんな話があったかな」という感じで戻ってきたりできるので、どんなことが書いてあるのかだけは、把握するためにやります。

さらにもうちょっと興味があったら、最初の1文まで読む。その中から「ちょっとここはわからないな」とか「ここは重要だな」というところだけ最後まで読むという感じで、論文を1個読むのも上から下まで全部読むんじゃなくて、トップダウンで重要なところだけいって、そこまで時間がない時は目次までで終わりみたいな、そんな感じの読み方になっています。

小説と違って、トップダウンにしないと、全体を把握しないとどこが重要かがわからないので、技術記事を読む時はこっちのほうが広くわかるので便利かと思います。

(次回につづく)