- AIに対する愛憎は、技術そのものではなく、人間がリスクとコントロールをどう感じるかから生じます。私たちは理解できるものを信頼しますが、AIは「ブラックボックス」です。コマンドを入力すると結果が現れますが、そのプロセスは見えません。この曖昧さが、ユーザーに主導権の喪失を感じさせます。
- 「アルゴリズム嫌悪」(algorithm aversion)の現象は、人々が機械の誤りよりも人間の誤りを選ぶ傾向があることを示しています。AIが一度でも間違ったのを見ると、信頼は人間が間違った場合よりもはるかに早く崩壊します。
- AIがあまりにも「丁寧」であったり、好みを「正確に予測」したりすると、「擬人化」(anthropomorphism)の現象、つまり機械に人間の感情や意図を帰属させることにより、ユーザーは背筋が寒くなることがあります。
- 反対に、AIが誤りを犯したり偏見を示したりすると、客観性への期待に反するため、否定的な反応がより強くなります。人間は人間の誤りには寛容ですが、機械の誤りにはあまり寛大ではありません。
- 教育、執筆、法律、デザインなどの職業において、AIは「アイデンティティの脅威」を引き起こします。これは、職業的価値と自己が置き換えられるという感覚です。疑念は心理的な自己防衛メカニズムとなります。
- 声、アイコンタクト、ためらいなどの感情的な合図の欠如は、AIとのコミュニケーションを「魂がない」ものにし、「不気味の谷」(uncanny valley)の感覚を呼び起こします。これは、人間に近いが不快な逸脱がある状態です。
- AIを疑う人が皆不合理なわけではありません。採用、信用、セキュリティにおけるアルゴリズムの偏見は現実です。システムによって傷つけられた経験を持つ人々は、「学習性不信」(learned distrust)—保護に基づく根拠のある不信—を形成します。
- 人々がAIを信頼するためには、透明性があり、質問可能で、責任があり、ユーザーに操作されるのではなく、パートナーシップの感覚を与える必要があります。
📌 AIの受容または恐怖は、コントロールの心理、アイデンティティ、そして信頼の経験に根ざしています。AIが「ブラックボックス」である限り、人々は警戒するでしょう。技術が透明になり、ユーザーが質問し、理解し、介入できるようになったときにのみ、AIは冷たい脅威ではなく、信頼できるパートナーとして見なされるでしょう。
