【人間を機械にする罠】AIはデータとの相関関係で動くというのが大前提

学び

人間のシステムは無限

みなさん、こんにちは。

元都立高校国語科教師、すい喬です。

2024年度小論文入試のテーマには必ず、AI関連の文章が出題されます。

間違いありません。

そこで今回はAIの実態についてもう少し深堀りしてみましょう。

最近は生成AI、チャットGPTの話題でもちきりですね。

今日の新聞にも記事がありました。

推薦入試に伴う小論文とチャットGPTの関係です

特に総合型入試の場合、あらかじめ自宅で書いた自己推薦書を提出するケースが多いのです。

志望動機などもまとめて書かせるケースがほとんどです。

その場合、チャットGPTなどのアプリを使って書かれたら、どうやって見破るのかという話でした。

基本的にはお手上げでしょう。

従来も進路指導や担任の先生が、手を入れるというケースは想定されてきました。

あらかじめ、その分は割り引いて評価されてきたのが実態です。

しかし、それを生成AIが行うことも可能になりました。

複雑な内容の文章でも、基本のコンセプトがしっかりしていれば、チャットGPTは上手に仕事をこなします。

どうしても不十分な部分だけを修正すれば、それで十分に通用する提出用の論文になりうるワケです。

大変な時代になりました。

おそらく、評価点の割合を大きくかえる必要が、出てくるかもしれません。

面接やプレゼンテーションの比重を、重くすることも考えられます。

特に面接ですね。

これは想像以上に深刻な事態です。

年内入試と騒がれている一方で、総合型(旧AO)入試はかなりのテコ入れをしなくてはならないでしょう。

2024年度の試験は、大きなターニングポイントになる可能性を孕んでいます。

なぜそこまでAIがものすごい力を持っているのか。

少し考えてみます。

美学者で、次々と新しい感覚の本を上梓している伊藤亜紗氏のコラムを参考にします。

AIの持つ先端性と限界をみごとに分析しているからです。

本文

AIのバイアスをめぐる議論が世界的に盛んになりつつある。

バイアス、すなわち偏見や差別のことだ。

周知のとおり、AIはは膨大なデータを学習することによって、判断を下すことができるようになる。

人間は現実の世界の中で学ぶが、AIにとっては与えられたデータが全てだ。

データに偏りがあれば、偏った判断を下すAIになってしまう。

結果として、人間の社会に含まれる偏見が、写し鏡のように、AIに移行してしまうことがある。

例えば2018年には、米大手IT通販会社が採用試験を自動化するために開発したAIに、バイアスがあったことが明らかになった。

このAIは、過去10年間の採用実績に基づき、応募者の履歴を1~5個の星の数でランクづけする。

ところが 実際に動かしてみると「女子大学」「女子チェスクラブ部長」など、女子という言葉が入っている履歴書を、低く評価する傾向が明らかになったのだ。(中略)

こうしたバイアスをなくすために、学習に用いるデータに多様性を持たせ、偏りがないようにすることは重要だろう。

人種、ジェンダー、障害の有無など、様々な人間がいることをAIに知ってもらい、「人間」なるものの定義を精緻化していくのだ。

アメリカでは、AI製造元の責任を問う動きもある。

しかし、だ。

実はここにこそ重大な罠があるのではないか。

そもそも私たちは、有限個の特徴の束によって記述し尽くせるような存在ではないはずだ。

現実とそれについての記述はイコールではない。

生きているということは、パラメーターに還元できない、その人だけの世界を持っているということだ。

そのことを忘れて現実と記述を同一視してしまうと、多様性を目指していたはずが、人間をステレオタイプに固定してしまうことになる。

2018年にアメリカで自動運転テストカーが、歩行者を死亡させる事故が起きた。

その車に搭載されていたシステムが、横断歩道のない場所で道を渡る人がいることを、想定していなかったのである。

そう、人間とは横断歩道がなくたって道を渡るような自由な存在なのだ。

いや、他方で違う未来も見える気がする。

それは、AIが想定する定義に合わせて、人間が横断歩道以外の場所では絶対に道を渡らなくなる未来だ。

パソコンしかり、スマホしかり、新しいテクノロジーが登場すると、人間はむしろ自分の方をするに合わせて作り変えてしまう傾向がある。

AIそのものを否定するつもりはない。

だがそこに潜むバイアスに、私たちは十分注意する必要がある。

なぜならその本当の意味は、AIが人間を機械のようなものだと見下し、そして実際に人間が機械のようになっていくことにあるのだから。

バイアスの怖さ

コラムを読んで感じるのは、バイアスの持つ怖さです。

バイアスとは考え方や意見に偏りを生じさせるものをいいます。

ここでの1つの例は「女子」に対するものですね。

最近の言葉でいえば、ジェンダー格差です。

AIが頼るのは人間によるデータ入力です。

ひたすらデータの蓄積がその命綱なのです。

逆にいえば、より多くの人間に使われないアプリはAIとして成長しません。

しかそこにある種の悪意やバイアスがかかっているとしたら、すぐその近くにすり寄っていくのは間違いないのです。

この怖ろしさはあらゆるところに仮想できると考えた方がいいでしょう。

ある種の思想や考え方をメインにAIのプログラムを組み立ててれば、すぐにその方向へ動き出します。

その結果、AIの代理戦争も十分に起こりうる可能性が生じるのです。

第2の例は人間の行動様式でした。

間違いではなくても起こすミスや、軽挙妄動もすべてデータとして取り扱っておかなければ、横断歩道を渡る人間を十分に捕捉することはできません。

しかし冷静に考えてみれば、人間は無数の特徴の束を、さらに無数に束ねて生きる複雑な生命体です。

パラメーターに特化することは、ほぼ不可能に近いのです。

それをAIにとりこむためにデータ化することの難しさは、想像を絶します。

簡単な動作を繰り返す工場用のロボットならば、開発も可能でしょう。

ところが細かな気配りの単位にまで、それを敷衍する人間のデータを集約しきれるのかどうか。

人間は機械ではないところに、存在の条件があるのです。

機械になる人間

AIが人間を超える瞬間をシンギュラリティと呼ぶことは、多くの人が知っています。

実際、そのような時代が来るのでしょうか。

日々のデータ蓄積が、確実にAIの精度を高めることは間違いありません。

その結果、イラスト、アニメ、あるいはコンテまで、違和感のないレベルで作り上げようとしています。

人間が想像もしなかったストーリーを組み立てることも夢ではなくなりつつあるのです。

チャットGPTも初期の頃とは様相が違っています。

昨年の11月に発表した段階でのデータは、全て上書きされていると考えた方がいいでしょう。

つまり袋の中身は書き換えられてしまっているのです。

多くの人がこのアプリを使えば使うほど、その要旨は形をかえていきます。

やがては必ず人間を見下す日がやってくるに違いありません。

それでは使わないという方法はあるのか。

おそらくないでしょう。

パソコンや、スマホを使わない世界をあなたは想像できますか。

メールのない日常はもうありえないのです。

つまり人間が、AIの好む方向へ機械化していくことは、間違いありません。

それをどのように阻止するのか。

そこにこれからのわずかな可能性があると考えるべきです。

残された少ない時間を、あなたはどう使いますか。

今ほど、人間が試されている時はないのです。

今回も最後までお読みいただき、ありがとうございました。

タイトルとURLをコピーしました