GPTの奴って
GPTの奴って、ネットでつながって居る何処かにちゃんと書かれている情報に関しては、即座にかつおおむね適切に端的にまとめて答を返してくるけれども、そうじゃないところにある情報は当然のことながら知らないので、ほんとにいい加減な知ったかぶりで返してくるんだな。このもっともらしい知ったかぶりが、その個別分野のネット上にある情報とない情報の配置状況が分かっている人間には「こいつ、ネット上にある聞きかじった知識だけでもっともらしい知ったかぶりしやがって」と透けて見えるのだけれども、そうじゃない人間には分かっている人が自信たっぷりに返してきているようにしか見えないんだよな。これが最大のリスクだろう。
« 武藤浩子『企業が求める〈主体性〉とは何か』 | トップページ | 日本の賃金が上がらない構造@『政経研究時報』2023年4月号 »
コメント
« 武藤浩子『企業が求める〈主体性〉とは何か』 | トップページ | 日本の賃金が上がらない構造@『政経研究時報』2023年4月号 »
プラグイン機構みたいのがあるので、Webにあるジャーナルなら適宜ログインして参照してもらうみたいなものを書くことはできると思います。
あるいは、そもそももともとペイウォールの向こう側にあるものを見ないで Google で検索するだけで何か言う人は昔から居たわけで、 ChatGPT や Bard が出来たことでそういう面では本質的な変化は無いと言えるのではないでしょうか。
Amazonとかエルゼビアとかがこの方面で本気だしたらまた光景が変わるかもしれませんね(法的な問題がいろいろあってすぐにどうこうとはならない気はしますが)。
一方で日本労働法だのスペイン労働法だのの研究が AI にたいしてアクセシブルになる事態ってあんまイメージしづらい気がします。国際的な労働力獲得競争とかにおいてこういう面が不利に働くかもとか今思いました。
投稿: ssig33 | 2023年5月18日 (木) 19時38分
信頼性という点では、AIは責任が取れないというのが致命的でしょうね。
AIを詰問してもしょうがないので。
組織労働では結局裏取りで二度手間になるので使える局面は限られるでしょうね。クオリティや信頼性なんてどうでも良いと割り切ったところでしか使えないかもしれない。
クリエイターのブレインストーミングなんかには使えそうですね。つまり自らが創造者であると責任を引き受ける立場の人間であれば活用できる。逆に言えば大部分のサラリーマンには活用が難しいのではないか。組織労働とは責任の分担、押し付け合いであって、そのようなプロセスの中でクオリティを維持するのが組織の本質でしょうから。「いや、GPTの奴が言ってたんで」という言い訳は許されないでしょう。(まあ、そのような言い訳が許されるような方向で組織が進化する可能性もなくはないか)
政府はAI開発に前のめりなようですが、短期的にマネタイズできるようなものではないかもしれない。まあ社会インフラの整備として長期的な視点で見るべきでしょうけれど。
投稿: 通りすがり2号 | 2023年5月18日 (木) 19時49分
あまりにも平然とうそついてくるので、「・・・じゃないんじゃないか?」と問い詰めたら(つい、感情的になって・・・汗)、平然と自信たっぷりにも少しモディファイしてもっともらしくしたやはり嘘っぱちを騙りかけてくる。
しかし、こういうのは、自分がそのあたりの情報の配置状況をよく知っていればこそウソが見抜けるけれども、そうでなかったらおそらく絶対に見抜けない。
そして、前にも本ブログで書いたけれども、人間って、ごくごく狭い一部領域については専門家であり得るけれども、それ以外の圧倒的に膨大な領域においては、赤ん坊並みの素人に過ぎないので、自信たっぷりのGPTに教えられたら、多分抵抗のしようがないと思う。
投稿: hamachan | 2023年5月19日 (金) 10時29分
ジョブ型雇用で回答してもらったら、途中に日本的な「なんちゃってジョブ」型的な文言が入ってきました(^^;
まあ、ネット上の情報がそういうものだから仕方ないのでしょうね。
ネット上の情報の偏りを却って増幅しかねない負の面を解消できないままに開発を続けるのは勘弁してもらいたいです。
投稿: balthazar | 2023年5月20日 (土) 08時22分
某氏が「英語では証明が公開されているが、日本語では証明が公開されていない数学の問題について、英語で聞いたら答えたが、日本語で聞いたら答えられなかった」とYouTubeに上げていたので、検索の答えを多少それっぽく再構成してるだけなんだろうなと。
法令解釈は、改正前・後の区別がつきそうにないので、平気で改正前の条文による解釈を答えてきそうです。
投稿: ちょ | 2023年5月24日 (水) 22時11分