見出し画像

ピーマンの奇妙な冒険:スーパーでの不審者認識とAI倫理

『奇妙な冒険』と書いた時点で『また #ジョジョの奇妙な冒険 ネタか?』と思った読者のみなさま……ほぼ正解ですが、ピーマンからでも #漫画 #アニメ #AI倫理 を語るのがこのブログの特徴です。

 ところで、皆さんは、スーパーの野菜売り場で、お世辞にもお洒落とは言えない格好でピーマンを手に取り、不思議そうな顔をして、ピーマンをジロジロと観察している、中年男性を見掛けたらどう思いますか?

『このオッサンは数十円のピーマンを買うのに何を悩んでいるのだろう?』、『この人は初めてピーマンを見る外国人なのか?』、『ピーマンが傷んでいないかどうか神経質に品質をチェックしているのだろうか?』、『こんな変な人とは関わらない方が良いので、今日はピーマン買うのは止めよう』あたりでしょうか?

 世の中には色々な考え方があるので、もしかすると、『この人はピーマンを万引きしようとしているかも知れない。通報した方が良いかしら?』と思う方もいるかも知れません。

 でも #秋葉原 のスーパーでそんな人を見掛けたら、それは私かもしれないので、通報だけは勘弁してください。

 私がピーマンを眺めながら考えていることは、『なぜ #ピーマン は日本ではピーマンと呼ばれているのだろう? フランス語でPimentと言えば #唐辛子 ではないのか?  #チュニジア 人がこれを #アラビア語 でフィルフィル・アフダル(فلفل اخضر)緑の胡椒』と呼んでいて、毎日、ピーマンとナスとトマト(全部ナス科の植物)を食べる人が多いのはなぜか? それ以前にチュニジアには夏野菜が一年中あるのはなぜか? チュニジアでは、ピーマンオムレツは、タジンチュニジエン(略してタジン)なのに #モロッコ #タジンと言えば、『調理器具のタジン鍋)』なのは何故か?

 どうして、チュニジアではで #フランス語 が通じるのに、フランス語でOmelette au Poivron(オムレツ・ピーマン)と呼ばないのか? なぜ、フランスでは唐辛子のPimentがPoivronになってしまったのか? 同じ植物の果肉はアメリカではGreen Bell Pepper #ペッパー なのに #唐辛子 のように辛くないのは何故か?  #レッド・ホット・チリ・ペッパー とハッシュタグをつけるとジョジョファンと、ロックバンドの #レッド・ホット・チリ・ペッパーズ ファンのどちらが興味を示すか? なぜ、日本人は #RHCP と略さずに、 #レッチリ と略してしまうのか? 南米原産のこの植物を辛くなく品種改良したのは誰だ? それ以前に、こいつは元々辛かったのか?  #パプリカ は緑、黄色、オレンジ、赤くらいは #エチオピア #モザンビーク #ジンバブエ などの #アフリカ 諸国 でも売っているのに、緑以外のピーマンは売っていないのは何故か? ピーマンから #アニメ映画 のパプリカに話を振るのは無茶ぶりか?』みたいな何の役にも立たないことなので無害です。

 こんなくだらない話しからAI倫理の話を引き出すのは #無理ゲー と思ったあなたは甘いです。

 実際にこんな風にスパーでピーマンを眺めていると、画像処理AI搭載防犯カメラが不審人物として警備室のアラームが鳴って、不審者扱いされてしまうんです。

 このような誤作動を防ぐためには、不審な人物の呼吸や体温、顔色の変化、ちょっとした身振りの変化、視線などの情報を分析し、感情を推測する必要があります。それでもまだ誤作動する可能性があるため、最終的には犯意の有無や思想までモニタリングすることが必要とされることが、AI技術の進化の一環です。しかしこの進展により、プライバシーの保護のためには、更に多くの個人情報が必要となり、これが『 #プライバシー・パラドックス (Privacy paradox)』を生むことになります。

 ここまで来ると、ピーマンからでも以下のようなAI倫理問題が引き出せるでしょう。

#プライバシーの侵害
 本稿では画像処理AI搭載防犯カメラがスーパーでピーマンを眺めている人を不審人物として警備室のアラームを鳴らすシナリオが描かれています。このシナリオでは、個人のプライバシーが侵害される可能性があります。AIカメラによる監視が普及すると、個人の行動が常に監視されることになり、プライバシーの保護が難しくなります。

#誤識別や偏見
 AIによる監視システムは、誤識別の問題を抱えています。文中で述べられているように、ただピーマンを眺めているだけの人が不審人物とされ、不審者扱いされる可能性があります。これは、AIがどれだけ進化しても、完璧に人間の意図や行動を理解することは難しいためです。

#個人の自由と権利の制約
 AIの誤作動や誤識別は、個人の自由や権利を制約する可能性があります。誤って不審人物とされることで、個人が不必要に監視され、または警察に通報されることがあります。これは、個人の自由を制約し、生活に不便をもたらす可能性があります。

#透明性 #説明責任 の不足
 AIシステムの動作原理や判断基準はしばしば #ブラックボックス 化されており、個人がどうして特定の行動を取られるのかを理解するのが難しい場合があります。これにより、誤識別が発生した際に、その誤りを是正するのが難しくなります。

#感情や思考の監視
 本稿ではAIが不審な人物の呼吸や体温、顔色の変化、身振り、首の角度、視線などを分析し、感情を推定することが示唆されています。これは、個人の内面すら監視される可能性を示しており、これは重大な倫理的問題を引き起こす可能性があります。

 以下のようなシステムは、これから開発するまでもなく、かなり昔から実用化されている物です。

 これらの問題は、AI技術の発展に伴い、今後ますます重要になるでしょう。適切なガイダンスと規制、および技術の進歩によって、これらの問題に対処する方法を見つけることが重要です。


この記事が参加している募集

AIとやってみた

この記事が気に入ったらサポートをしてみませんか?