江草陽太
大阪府生まれ。ネットワーク、データベース、情報セキュリティのスペシャリスト。 洛星中学・高校のロボット研究部創立メンバー。ロボカップジュニアジャパンなどのロボコンに出場。 その後、大阪大学工学部電気電子情報工学科に進学。NHK大学ロボコンに出場。学生時代より個人事業としてシステム開発を行う。

2014年10月、新卒採用によりさくらインターネットに入社。「さくらのVPS」等のバックエンド開発を担当。IoTプラットフォーム「sakura.io」の開発責任者を担当し、サービス設計と開発を行う。

2016年7月、執行役員に就任。現在は、さくらインターネット全体の技術統括とコーポレートIT、情報セキュリティを担当。宅急便をSlackから発送できるサービスを開始するなど、コーポレートITに関わるDXのサービス化も行っている。

AIが提示した内容をきちんと理解して、うまく活用できる人とできない人が出てくると思うのですが、この差はけっこう大きく出てきてしまうのでしょうか?

大きいと思いますね。これは生成AIが出る前から顕著に表れていて、Googleで検索した情報の取り扱いですね。まずそもそもの検索の仕方が悪いとかですね。自分で検索をした時にはぜんぜんわからなかったんだけど、誰かに聞いた時に「Googleで検索したらいきなり出てきたで」みたいなことがあるわけですよ。

あるいは、Google検索で引っかかったブログの記事の内容を読んで、「いや、これは言っていることがおかしいよな」と思えるか・思えないかとか、これって前からあって(生成AIで発生する問題と)一緒だなと思いますね。

「ChatGPT」もよく使うんですが、聞き方によって出力が変わってくるし、出力が「また、こいつは一般論をしゃべっているや」「これじゃ役に立たん」みたいな判断ができるか・できないかで、信用して良いか・信用してはダメかの判断を間違えるので、けっこうGoogle検索と一緒かなと思っていますね。

プログラミングのコードを作ってくれる生成AI系の場合、思った設計と違ったり、その他の部分のコードと思想が違ったりすると後々困ってくるので、「なるほどね。こうやったらだいたい良いのね」と思いつつ、中身を理解して、最短コースで自分が書いた場合とほぼ同等になるように書き換えをする。

これは「ここに変な値が出たらバグるやん」みたいな境界チェックだったり、脆弱性対応みたいなことが抜けていることもぜんぜんあるので。きちんと頭の中で実行して、「あ、ここに問題があるね」とコードレビューをする能力が求められてくるんですよね。やはりそれぐらいの理解力がないと、生成AIは使えないんだなという感じはします。