【AIの可能性】開発途上のChatGPTが人々の日常を変える不安

ノート

AIの可能性

みなさん、こんにちは。

元都立高校国語科教師、すい喬です。

人工知能の発達が止まりませんね。

人類はついにルビコン川を渡ったのかという記事が、飛び交っています。

何がその根本にあるのでしょうか。

少し考えてみましょう。

それはなんとなく肌で感じる恐怖感に似たものかもしれません。

現在、話題の中心にあるのは「ChatGPT」というアプリです。

毎日、新聞やマスコミをにぎわせていますね。

試みた人の数が国内でも数百万人単位と言われているのです。

今日のニュースによれば中国では高度化する対話型AIに強い指導をするという方針を打ち出しました。

彼らは何を恐れているのか。

政府見解と異なる文章などが拡散する事態を、実は警戒しているのです。

AIが作成する文章は、政権が重視する価値観を反映したものでなければ困るのです。

「国家の統一を損なうべきではない」という文言には重みがあります。

程度が甚だしい場合は、刑事責任が問われることもあるという話です。

逆にいえば、対話型のAIボットは影響力が強いと判断したのでしょう。

現在のところ、「ChatGPT」トライアル版は無料です。

しかしやがては有料版だけになるでしょう。

ところでAIとは何なのか。

言葉だけが先行している気がしてなりません。

簡単にいえば、これまで人間にしかできなかった知的な行為を行うシステムのことです。

人間の頭脳は複雑な思考に耐えることができます。

認識、推論、言語運用、創造などを、どのような手順(アルゴリズム)で進めれば最適な結果になるかをつねに考えているのです。

そのためにどのような情報や知識を準備すれば実行できるのか。

大脳は動き続けます。

AIはその作業をすべてコンピュータに委ねるのです。

注意喚起

東京大学は全学生・教員向けについ最近、ChatGPT、BingAIやBard等の生成AIの利用に関する注意喚起を行いました。

生成AIを頭ごなしに否定してはいるワケではありません。

平和的かつ上手に制御して利用すれば、このアプリは有益であるとしています。

しかし技術的には課題が多くあるという論点が中心です。

生成AIの文章の怖さは、すべてが明快な回答ではないということです。

多くの意見をAIが吸い上げ、折衷案に落とし込むことも珍しくはありません。

つまり回答は一般論に近くなりがちなのです。

それでも小論文の一般的な解答例程度以上の文章を、瞬時にはじき出します。

実際に試してみればよくわかります。

受験生の平均値をはるかに超えた回答です。

それだけに、どう扱えばいいのかという問題が出てきます。

これは一般論に過ぎない、と甘くみると痛いしっぺ返しを受けることになります。

ChatGPTなどのアプリを使いこなすためには、相当の専門的な知識が必要な所以です。

回答に対して、自らの意志で修正していく態度が必要になるでしょう。

それだけの識見がないと、騙されてしまうこともあり得ます。

AIを使って、意図的にある種の偏った意見を投げ込むことが十分可能だからです。

それについては元Googleの社員で、AIを倫理面から研究してきたメレディス・ウィテカー氏の意見が参考になります。

利用者のデータを集めたらAIの高度化は結局、「監視のビジネスモデル」の中にあると彼女は指摘しています。

AIは中立的でも民主的でもないと言い切るのです。

究極的には、このシステムを開発して人たちの利益につながるようにつくられているというのです。

世界が実験台

AIボットの怖さは、このシステムが全世界を相手にしているということです。

現在のように、個人のプライバシーまでが、情報として飲み込まれるシステムでは、いずれ、破綻する時がくるに違いありません。

誰もが自分を世界にさらす危険に満ちているのです。

一般公開がなされている現在、上位に置かれたアプリには、たくさんの人が集中します。

その結果、ビッグデータが集積し、精度がますます上昇します。

集中すれば、当然監視の目も届きやすくなるのです。

そこを一網打尽にすれば、ほぼ全世界の人々の思考をある方向へ導くことも理論上は可能になります。

これは想像以上に怖ろしいことです。

どうしたらその危険を防ぐことができるのか。

現在、多くの国で、その先へ向けての研究が始まっています。

AI自体に独自の監視機能を持たせるのも1つの方法です。

しかしそこに至るアルゴリズムが改変されれば、全く別の意味での監視がなされる可能性もあります。

もっと踏み込むとすれば、ある倫理的なシステムをそこに内包させることです。

自動でAIが判断し、人間的な方向へ軌道修正する。

しかし誰がそれをやるのか。

またそうした意志を持ち続けることができるのか。

最終的には独占的な大企業が、国家や軍と結びついてしまう怖れもあります。

災害のために開発した機器が、次々と兵器に変わった例は多いのです。

最近ではドローンでしょうか。

災害の時、地形を読み取る装置だったドローンは、いつの間にか適地を攻撃する有能な武器になりました。

AIがそうならないという確証はどこにもないのです。

数年前から開発に携わっていたマイクロソフトの内部チーム30名も、この技術が持つ宿命ゆえに解雇されました。

倫理的な側面からの研究をするプロジェクトだったのです。

この研究に関わっていたメンバーは、ChatGPTの潜在的なリスクに早くから気づいていました。

現状ではまだどこまで回答が可能なのか、よくわかっていません。

今のままでは企業もすぐに利用することはないと思われます。

しかし研究は深く潜ったまま進んでいるのです。

今後どこへ向かうのかは全く未知数です。

巨大IT企業は、自由の幻想を振りまきながら、進むことをやめません。

彼らの持つデータ量が国家を背後から揺さぶることも可能です。

確かにAIを導入し動かすところまで、プログラマーは必要です。

最初からAIは新しいものを勝手に生み出しはしません。

そこから先はどうなるのか。

最後は人間力

全く将来はわからないのです。

未公開の秘密データや個人情報をどんどん飲み込んで、自己増殖を繰り返していくでしょうね。

その結果がどのようになるのかは、もうしばらく様子をみなければ、なんともいえません。

最後は人間力です。

人類の脳がAIと対峙する瞬間が、やがてやってくるに違いないのです。

何も見ないふりをして今のまま突き進むと、自ずから地球の未来は暗いものになります。

当然のことながら、入学試験の小論文や、卒論、学会での論文発表にも大きな影響を及ぼします。

Chatボットを使用したのかどうかを検証するシステムの開発も、同時に広がるでしょうね。

まさに追いかけっこの様相を呈します。

今後もこの問題に強い関心を寄せて下さい。

今年の入試問題の大きなカギになることは間違いありません。

今回も最後までお付き合いくださり、ありがとうございました。

タイトルとURLをコピーしました