COVID-19対策は自由を抑圧するか?DataCienciaの群集監視AIがその限界を確かめる

COVID-19によって問題視されるようになった監視システム。しかしながらその問題はCOVID-19と共に生まれたものでも無ければ、それと共に消え去るものでもない。”ニューノーマル”の時代にどう監視システムと向き合うべきか、DataCienciaの創業者の言葉で考える。
ディープラーニング ヘルスケア

Contxto - チリの「DataCiencia」は、COVID-19に伴う不測の事態という今日の問題に取り組むため、視覚的なAI監視ソフトウェアを導入している。

Kitún.ai」は、かなり確立された人工知能(AI)と機械学習ソフトウェアを利用し、それらを使いやすい形式で展開する。

このソフトウェアは、どのような会社でも(大なり小なり、彼らの能力に関係なく)、従業員や顧客、通行人を見て、彼らについての様々なことを見分けられるように作られている。

これは非常に単純なことのように思えるが、もっと深く掘り下げてみると、ある種の懸念が浮かび上がってくる。決してそれは、フェイスマスクの着用は権利の侵害だと騒ぐ類の懸念ではない…

健康監視AIの仕組み

パンデミックの影響で、予防という意味での健康対策が必須となった。また、コンプライアンスに準拠していない人々を職場での危険因子として特定することは、数ヶ月前には存在しなかったことである。

AIの美点として、適応性があり、すぐに新しい問題を理解するために学習するという点が挙げられる。Kitún.aiはフェイスマスクを正しく装着できていなかったり、人が十分に離れて立っていなかったり、会場が安全な最大収容人数を超えていないかどうかなどの問題を特定することができる。

そして、幸いなことに、最新のハードウェアへの投資を心配している企業にとっても、DataCienciaはソフトウェアを購入するだけで済む良心的なビジネスモデルを取っているため、導入障壁が低い。このツールは、以前に設置された防犯カメラなどの既存の監視インフラで使用することができる。

例えば、このツールは、トラブルスポットを自動的に検出できるとされている。また将来的には、人が一箇所に集まりすぎている場合、Kitúnは問題のある場所を検出するだけでなく、解決策として別の場所を提案してくれるかもしれない。

DataCienciaとAI監視の倫理

チリのルーツをたどると分かるように、Kitúnとはマプチェ族の言語であるマプドゥングン語で「先を見る」という意味である。しかし、このソフトウェアの背後にある会社に、ピカピカの新技術を超えて、いくつかの気まずい質問に答えるように頼まなければならなかった。

そこでContxtoは、DataCienciaの創設者であるRodrigo Hermosilla氏に連絡を取り、ついにラテンアメリカの海岸にまで到達しつつあるAI監視革命について、少し答えにくいであろう質問にいくつか答えてもらった。

私は、この監視技術が「アジア社会のように使われている」というDataCienciasのややあからさまな言及についてHermosilla氏に尋ねた。DataCienciaがこう言ったとき、私は思わず脳内で赤旗を上げた。

創業者の言葉は不安を払拭しようと、こう語っている。

「我々は [Kintúnの] 倫理的利用の保証人です [...] 我々にとって、それが処理する情報は「新常識」によって決定された用途以外で利用可能になってはなりません。たとえKintúnの分派の場合でも(これは稀ですが)、この同じ精神を保持しなければなりません。」

しかし、ルール曲げで有名な地域ではよくあることだが、ラテンアメリカではDataCienciaの善意の’精神”が通用しないかもしれない。そこで私は、彼らを雇っている企業や政府側の不正行為を防ぐために、具体的に何をしているのか聞いてみた。

Hermosilla氏はこの点について、「コミュニティの行動と保護に十分な情報を提供しただけで、特定の個人に適用できるものはない」と明言した。

懸念されるAI監視の "ニューノーマル"

"The new normalcy"(新常識)という表現は、パンデミックが私たちに課した規則や規制について語るために広く使われるようになった。しかし、これらの新たに正常化された規範の多くは、私たちの社会で既に問題となっていたことへの反応である。COVID-19は単にこれらの悪事を悪化させただけである。

AIとその使用の背後にある倫理的な意味合いは、監視のためのものであることに違いはない。

これは明らかに、DataCienciaによって引き起こされた問題ではないし、彼らだけが解決すべき問題でもない。私はそう理解しているし、これに関してHermosilla氏も同意見である。

「技術は常に悪用される危険性があります。それにもかかわらず、技術の実装者としての私たちの責任は、技術へのアクセスが正しい倫理的なラインに沿って与えられるようにすることです。」

これは確かに正しいが、パンドラの箱のような瞬間と遜色ないのではなかろうか?

メロドラマ的になるのは嫌だが、これは正しくAndrew Oppenheimerが最初の原子爆弾の開発に参加した後に直面した現実のジレンマのようなものだ。

彼はその破壊力を深く後悔し、その努力は「非常に重大な間違いだった」と結論づけた。

AIは原子爆弾ほど明らかな破壊力があるわけではないが、大量破壊兵器よりもはるかに粗野な存在でもある。

AIは、私たちがまだ理解していない形で私たちの社会を変えていく。そして、DataCiencia自身の言葉にもあるように、「誰もが手の届くソフトウェア」になると、私たちはますます、そして一貫して、それをうまく使っているかどうか、そしてそれが可能かどうかという問題に直面することになるだろう。

私は、AIの道徳性にアプローチするときの良い出発点は、それが個人的に使用されているか、集団的に使用されているかどうかであると主張したいと思う。個人的なコントロールと社会的なコントロールは、AIを利用する際に考えられる2つの全く異なる結果に繋がる。

今のところ、私は少なくとも満足している。(少なくとも)紙面上では、Kitún.aiは後者のカテゴリに分類されるからだ。

しかし、これはAIの採用における長い道のりの1つの小さな一歩に過ぎず、我々はまだその途上であり良い方向へも悪い方向へも転がり得ることを理解しなければならない。

関連記事:Tech and Startups from Chile!

翻訳元:Are Covid-19 measures freedom killers? DataCiencia’s crowd surveillance AI tests the limits

記事パートナー
ラテンアメリカのスタートアップシーンの情報をカバーする、メディア・データカンパニー
執筆者
武田彩花 / Ayaka Takeda
Contents Writer
海外スタートアップの最新トレンドを
ニュースレターでお届け!
* 必須の項目

関連記事