AIを信頼するには、それがオープンで透明性がないといけない。以上。

著者: Heather Meeker

日本語訳: yomoyomo


以下の文章は、Heather Meeker による To trust AI, it must be open and transparent. Period. の日本語訳である。


機械学習は昔からずっと存在していた。しかし、2022年の終わり頃になって、ディープラーニングや大規模言語モデルが状況を変え始め、世間の目に入りだした。そして人々は、「我々はオープンソースソフトウェアを愛しているのだから、AI もオープンソースにしよう」と考え始めた。

だけど、オープンソース AI ってなんだろう? まだ分からない、というのが答えになる。

機械学習モデルはソフトウェアではない。ソフトウェアは、私のような人間によって書かれる。機械学習モデルは訓練される。モデルは、人間によって与えられた入力データを基に、自動的に自己学習を行う。プログラマがコンピュータプログラムを修正したいと思えば、何が必要かは明らかだ。ソースコードである。しかし、モデルを修正したければ、ずっと多くのものが必要になる。訓練を行うソフトウェア、訓練に使うデータ、訓練のプランなど。話はずっと複雑である。しかも、訓練を正確に再現するのは難しいし、不可能に近い場合もある。

「オープンソースの定義」はソフトウェアを対象に作られたもので、今ではできて20年以上経つが、素晴らしい成功をおさめている。皆が利用する標準的なオープンソースのライセンスがある。ソースコードへのアクセスは、人々が毎日利用する、生きた、実用的なコンセプトである。しかし、オープンソースの概念を AI にあてはめる場合、まず原則に立ち戻る必要がある。

何かが「オープンソース」であるには、ある包括的な本質を持つ必要がある。それは透明性だ。AI が採用や治療のためにあなたをスクリーニングしたり、実刑判決を決めるとすればどうだろう? それがどう機能するか知りたいと思うだろう。しかし、ディープラーニングのモデルは、現時点ではブラックボックスである。モデルの出力を見ても、そのモデルがどうやって、あるいはなぜその出力に至ったのかは分からない。できるのは、訓練が正しかったかどうかを確かめるために入力を見ることだけだ。そして、それはソースコードを読む容易さからは程遠い。

AI には我々の世界に大きな恩恵をもたらす可能性がある。現在、歴史上はじめて我々には、気候変動、貧困、戦争といった最大の問題に取り組む情報やテクノロジーがある。AI は世界を滅ぼすと言う人もいるが、AI は世界を救う希望に寄与すると私は考える。

でもまずは、AI を信頼できないといけない。そして、AI を信頼するには、それがオープンで透明性がないといけない。

消費者として、利用する AI がオープンであるよう求めるべきである。開発者として、AI を研究し、改良するためにどんな権利があるか知るべきである。有権者として、政府に使用される AI がオープンで透明性があるよう求める権利を持つべきなのだ。

透明性のない AI は消える運命にある。AI は潜在的に非常に強力で能力があるため、人々は既にそれを怖がっている。透明性のない AI は――大きな可能性があるのに、信用できないために行き詰っているテクノロジーである――クリプトと同じ道を辿る危険がある。我々が解決するのに AI が助けになる可能性がある問題は差し迫ったものなので、問題になる前に透明性を保証する方法を見つけ出すよう願うし、我々が力を合わせれば、問題を解決できると私は信じている。

--

OSI は、来たる Deep Dive: Defining Open Source AI Webinar Series において、AI とオープンソースの話題について意見を述べる指導者たちのグループを招集しています。登録は無料で、9月26日から10月12日の間に開催されるどのセッションでも参加して質問ができます。今日、ここから登録しよう


[翻訳文書 Index] [TOPページ]

初出公開: 2023年09月25日、 最終更新日: 2023年09月25日
著者: Heather Meeker
日本語訳: yomoyomo (E-mail: ymgrtq at yamdas dot org)
クリエイティブ・コモンズ・ライセンス
この 作品 は クリエイティブ・コモンズ 表示 4.0 国際 ライセンスの下に提供されています。