「AIを全面的に信頼することがどれだけ危険か」 めちゃくちゃ分かりやすい事件が発生してしまう・・・

  • follow us in feedly
AI ChatGPT 弁護士 判例 仕事 情弱 リテラシー 裁判 訴訟 人間に関連した画像-01

弁護士がChatGPTからの虚偽の法廷引用を謝罪

AI ChatGPT 弁護士 判例 仕事 情弱 リテラシー 裁判 訴訟 人間に関連した画像-02

ロベルト・マタ氏は、2019年に乗務中にサービスカートで負傷したとして、従業員の過失を主張してアビアンカ航空を訴えた。レビドー・レビドー・アンド・オーバーマン社の弁護士であり、ニューヨークで30年以上ライセンスを取得しているスティーブン・シュワルツがマタの代理人を担当した。

しかし、シュワルツ氏が準備書面の調査として提出した訴訟のうち少なくとも6件は「偽の引用と偽の内部引用を伴う偽の司法判断のようだ」とニューヨーク州南部地区のケビン・カステル判事は命令文で述べた。

偽事件のソースは?ChatGPT。

シュワルツ氏は宣誓供述書の中で、この訴訟以前には法的調査情報源としてChatGPTを使用したことはなく、したがって「その内容が虚偽である可能性については認識していなかった」と述べた。同氏はチャットボットの出所を確認しなかった責任を認めた。

今週の宣誓供述書の中で同氏は、「ここで行われた法的調査を補うために生成人工知能を利用したことを非常に後悔しており、その信頼性の完全な検証なしには今後も利用するつもりはない」と述べた。

以下、全文を読む


ツイッターより








<ネットでの反応>

やっちゃダメなAIの使い方の見本ですかね。

ChatGPTが正しい答えを返してくれると思ってる人の勘違いを矯正するのにめっちゃいい事例。

偽データを撒いておくことでChatGPTに拾わせる作戦が出来そうだな。まるで釣りだ

人は間違う。
ツールも間違う。
間違わないことを求めるより、間違うことを前提にした社内の仕組み作りの方が、現実的で有用かなと🤔


ITリテラシー低いやつは何やってもだめ

これはまさに影響を受けた職業😇

こーいうAIの嘘にだまされるのが医学分野で起きる可能性がある
医療でミスすると人が死ぬ


依頼側からしたら流石に金返せとなるんでは

まだ専門職がAIに仕事を奪われる時代は来なそうですね。というか、この場合は、ある意味ChatGPTに仕事取られてますけど。

何処までいっても人間による検証が必要、とw





海外だと弁護士が信頼するツール並みになってんのか
マジで進化を感じるな
やる夫 PC 汗 ふーむ 顎に手



人の命が損なわれる事態とかじゃなくてよかったわ
専門職が取って代わられるにはまだ猶予はありそうだな
やらない夫 考える


ゼルダの伝説 ティアーズ オブ ザ キングダム -Switch

発売日:2023-05-12
メーカー:任天堂
価格:6836
カテゴリ:ビデオゲーム
セールスランク:1
Amazon.co.jp で詳細を見る


FINAL FANTASY XVI(ファイナルファンタジー16) - PS5

発売日:2023-06-22
メーカー:スクウェア・エニックス
価格:8091
カテゴリ:ビデオゲーム
セールスランク:4
Amazon.co.jp で詳細を見る


今週の人気記事

その他おすすめサイト

COMMENT

コメントする

・NGワードはライブドア基準です。
・スパム対策で「http://〜」はコメントできません。
・住所や電話番号等の個人情報は書込みしないでください。
・特定個人や特定団体を酷く誹謗・中傷するようなコメントは控えて下さい。
・ブログの運営を著しく妨害するようなコメントについては法的措置も検討しておりますのでご理解の上コメントをお願い致します。
名前
コメント

この記事へのコメント

  • 1  名前: 名無しオレ的ゲーム速報さん 返信する
    いつかスカイネットみたいなの出てきそう
  • 2  名前: 名無しオレ的ゲーム速報さん 返信する
    AI嘘松
  • 3  名前: 名無しオレ的ゲーム速報さん 返信する
    24時間ゲーム記事なしwww
    なにがゲーム速報だwww
  • 4  名前: 名無しオレ的ゲーム速報さん 返信する
    実在をAIに聞くなw
    自分で調べろ
  • 5  名前: 名無しオレ的ゲーム速報さん 返信する
    ただのアホやん
  • 6  名前: 名無しオレ的ゲーム速報さん 返信する
    辞めさせろ
  • 7  名前: 名無しオレ的ゲーム速報さん 返信する
    最近はGPT4のbrowsingモデルが公開されてるこの件はGPT-3.5の回答か?
    予測変換と同じように統計的に次に来る可能性の高いワードを穴埋め的に計算してるだけなのに馬鹿すぎるだろ
  • 8  名前: 名無しオレ的ゲーム速報さん 返信する
    ネット黎明期と同じ状態やな
    ネットに書かれてることは嘘かもしれないから本で調べろって老害たちが言ってたやつ
  • 9  名前: 名無しオレ的ゲーム速報さん 返信する
    >>1
    今のはまだ精度100%じゃいけどすぐにほぼ100%の精度の時代が来そうだな
  • 10  名前: 名無しオレ的ゲーム速報さん 返信する
    実在する事件なのかAIに聞かなかったばっかりに...
  • 11  名前: 名無しオレ的ゲーム速報さん 返信する
    そらそうやろAIは虚構新聞も情報源にしてんだし
  • 12  名前: 名無しオレ的ゲーム速報さん 返信する
    AI関係なくて草
    昔2chで架空の飲食店作って予約ドタキャンされました!助けてください!って釣りやってたろ
  • 13  名前: 名無しオレ的ゲーム速報さん 返信する
    AI「オフサイドです」
    審判「違う!ゴールだ!ドン!!」
  • 14  名前: 名無しオレ的ゲーム速報さん 返信する
    >>9
    今は学習が完全じゃないからな
    学習させればさせるほど正確性が高まるし推論も瞬時だからそのうちAIの判定でも問題なくなりそうだ
  • 15  名前: 名無しオレ的ゲーム速報さん 返信する
    >>9
    専門知識が無さ過ぎのしったかAI
    こんなポンコツAI作るんじゃねーよ
  • 16  名前: 名無しオレ的ゲーム速報さん 返信する
    AIを信用というか人間の怠け心が悪なんだろ
    誰が言ったのかが大事って話があるけどAIはまだ味噌が付いているとは言えないから信じちゃうのかな
    そこへいくと俺らはAIがいかに糞なのか知ってるよなあ
  • 17  名前: 名無しオレ的ゲーム速報さん 返信する
    知ってたwww
    ありもしないもの勝手に作ってさも事実かのように話はじめるなんてザラやぞ
  • 18  名前: 名無しオレ的ゲーム速報さん 返信する
    これはさすがに使う側がアホすぎるんよ
    さすが訴訟大国
  • 19  名前: 名無しオレ的ゲーム速報さん 返信する
    嘘つく問題点は有料版のGPT4で改善されてるって聞いたけど、そうでもないんかな?
  • 20  名前: 名無しオレ的ゲーム速報さん 返信する
    現段階で確認しないのはアホ
    ただそのうち99.9%以上の確率で正確と言える状況になって、
    0.1%の誤りを指摘、それを認める困難さの方が問題になると思うよ
  • 21  名前: 名無しオレ的ゲーム速報さん 返信する
    結局人間が作り出すものなんてなにもかも不正確なんだよ
  • 22  名前: 名無しオレ的ゲーム速報さん 返信する
    AIいうてやってる事プログラムに従って動いてるだけで
    AI自信が考えて動いてる訳じゃないからな
  • 23  名前: 名無しオレ的ゲーム速報さん 返信する
    人類ヲ淘汰セヨ
  • 24  名前: 名無しオレ的ゲーム速報さん 返信する
    これって今はまだ自分で調べることができるけど
    将来的にAIの補間や生成によって本物や現実を見つけるのが困難になるよな
    今現在も文書だけでなく絵や映像もAIによってソースがあいまいになってきてるのに
  • 25  名前: 名無しオレ的ゲーム速報さん 返信する
    現状のAIへの質問って平気で嘘付くしソース出さないけどこれって出す程じゃない常識やろ?って感じで回答してくる時から怖いよな
  • 26  名前: 名無しオレ的ゲーム速報さん 返信する
    あれは物事をAI的に「創造」するからファクトに基づいた資料には向かないよ。
  • 27  名前: 名無しオレ的ゲーム速報さん 返信する
    chatgptもbingaiもインターネットから情報集めて編集してるだけだから全面的に信用したらいかんよ
    チャットで答えてくれるWikipediaみたいなもん
    誰かが嘘情報流したら容易にaiは騙される
  • 28  名前: 名無しオレ的ゲーム速報さん 返信する
    これはネタっつーか貶めるためとしかおもえん
    マジで実際調べずチャッピがいったからあるやろで臨んだんじゃバカもいいとこ
  • 29  名前: 名無しオレ的ゲーム速報さん 返信する
    現時点でchatGPTに信頼置いてる時点でかなりやべーやつやろ
  • 30  名前: 名無しオレ的ゲーム速報さん 返信する
    虚偽かどうかの検証を結局人間がやるしかない
    無駄な仕事が生まれるだけ
  • 31  名前: 名無しオレ的ゲーム速報さん 返信する
    >>1
    今のところAIって、それっぽいことを見た目正しいようにまとめれるってだけで正しくはない
    嘘でも真面目に語れば本当のように見えるってだけ
  • 32  名前: 名無しオレ的ゲーム速報さん 返信する
    ChatGPTはそういう使い方するもんじゃねえだろ
    情報集めるのはてめえでやれや
  • 33  名前: 名無しオレ的ゲーム速報さん 返信する
    あらゆる情報を得られるようにしたいのなら、常時学習し続けないとあかん。
    でも、世の中嘘をつくやつが居るし、そういうやつに限って発信したがる。
    論文とか、実際に実験や検証してみないと、嘘か本当かなんてわからないしな。
  • 34  名前: 名無しオレ的ゲーム速報さん 返信する
    >>9
    いや、今のAIは自分で思考してるわけじゃないから
    誤情報はどうしても入る
    ファクトチェックが絶対いるからそのジャンルの
    専門知識がないと使いこなすのは難しい
  • 35  名前: 名無しオレ的ゲーム速報さん 返信する
    ChatGPTは嘘を自信満々に答えるからな
  • 36  名前: 名無しオレ的ゲーム速報さん 返信する
    こんな一例で揚げ足取られてもな
  • 37  名前: 名無しオレ的ゲーム速報さん 返信する
    >>15
    開発中のAIに文句言ってもしょうがないけど、AIにその文句を聞いてもらえばAIの学習の手助けになるよ
  • 38  名前: 名無しオレ的ゲーム速報さん 返信する
    日本もパよく関連の弁護士とか兵器でやりそうだなw
  • 39  名前: 名無しオレ的ゲーム速報さん 返信する
    >>1
    AI気持ち悪い恥を知れ
  • 40  名前: 名無しオレ的ゲーム速報さん 返信する
    今後修正されるかもしれんけど、
    今のChatGPTは絵と一緒で無理やりつじつま汗をするから遊び以外には使えない。
    特に卒論とかやめとけ。
  • 41  名前: 名無しオレ的ゲーム速報さん 返信する
    Aiのミスの責任を結局誰か人間が取らなきゃならないんだから
    無駄よな
  • 42  名前: 名無しオレ的ゲーム速報さん 返信する
    今ai使ってるやつは法や社会的な話題でいかにaiが信頼できないかわかるだろ
    ソースが適当なのは精度の問題じゃなくて仕様の問題だからな
  • 43  名前: 名無しオレ的ゲーム速報さん 返信する
    ナビを信用しすぎて海にポチャンした車の話を聞いたことある
  • 44  名前: 名無しオレ的ゲーム速報さん 返信する
    日本だとテレビ局とかもこれ普通にやりそうだな
    兎に角制作サイドがこたつ記事やsnsの引用に頼りすぎで楽しようとしてるし
    またそれを検証せずにそのまま出す番組
  • 45  名前: 名無しオレ的ゲーム速報さん 返信する
    ネットから情報持ってくるから今の

    調べましたがいかがでしたか?
    とかが有力ソースになりやすいからすげぇ問題だぞ
  • 46  名前: 名無しオレ的ゲーム速報さん 返信する
    人間の仕事はなくならないな。
  • 47  名前: 名無しオレ的ゲーム速報さん 返信する
    >>31
    学習した結果で推論してるのがAI。
    情報を与えれば与えるほど確度が高まる。
    ようは今はまだ学生のようなもので、正しいこともあり正しくないこともあるけどちょっと頭が悪い。
  • 48  名前: 名無しオレ的ゲーム速報さん 返信する
    普通に嘘つきまくるから大事なことAIに聞くのはまだまだ早いぞ
    雑談とか小説を書けとか絶対的な正解がない使い方するのが良いと思う
  • 49  名前: 名無しオレ的ゲーム速報さん 返信する
    一番危ないのはこの判例を嘘だと誰も指摘できない状況になること
    今後この弁護士みたいな人間が増えるだろうしAIを信じる人が増えれば
    歴史や現実がAIによって塗り替えられる可能性もありそうだな
  • 50  名前: 名無しオレ的ゲーム速報さん 返信する
    AIがやらかしたら誰の責任かで押し付け合いそう
  • 51  名前: 名無しオレ的ゲーム速報さん 返信する
    カルト政府よりはマシ
  • 52  名前: 名無しオレ的ゲーム速報さん 返信する
    ただ、まあ今後とも利用されていくのはまず間違いない。
    自動車工場がロボット化される一方なのと同じ。
  • 53  名前: 名無しオレ的ゲーム速報さん 返信する
    道具の使い方を分かってない人間が問題を起こしてるだけ
  • 54  名前: 名無しオレ的ゲーム速報さん 返信する
    AIが嘘を吐くってフィクションだと面白いけど現実にそれがあるの底知れない恐怖を感じるな
  • 55  名前: 名無しオレ的ゲーム速報さん 返信する
    >>47
    そんなことはカケラもやってねえよ
  • 56  名前: 名無しオレ的ゲーム速報さん 返信する
    チャットAIは事実としての判例を検索をしているんじゃなく
    判例っぽいパーツを注文通りに組み立てたに過ぎない
    つまりAI人がAIに期待するものがおかしい
    学習しても挙動は変わらん
    1兆超えてそうなデータに1万や2万を加えて何が変わると言うのだ
  • 57  名前: 名無しオレ的ゲーム速報さん 返信する
    と言うか専門家も判例確認でググるのかw
  • 58  名前: 名無しオレ的ゲーム速報さん 返信する
    分かりませんが言えるようになればいいんだけど、
    今は自信満々で噓つきよるからな。
    ただ分かるか分からないかをどうやって判断するのかってのがあるね。
  • 59  名前: 名無しオレ的ゲーム速報さん 返信する
    どーせ無料版の1番性能低いchatGPTを使ってたんやろね(無料版がどれだけポンコツかはYouTubeで動画が沢山上がってるからそれ見てくれ)。

    1番高価だが1番性能の高いchatGPTならこんな事には絶対になってなかったと思う。
  • 60  名前: 名無しオレ的ゲーム速報さん 返信する
    使い方が悪すぎるだけだろ
  • 61  名前: 名無しオレ的ゲーム速報さん 返信する
    人間を全面的に信頼する方が危険です


    はい、完全論破
  • 62  名前: 名無しオレ的ゲーム速報さん 返信する
    弁護士が阿呆すぎるな
    所詮文系
  • 63  名前: 名無しオレ的ゲーム速報さん 返信する
    テンプレートのようなものがいくつもあって、
    適当なものを見つけそれしたがって単語を埋めていく。
    どうしても埋まらないものこそAIの本領発揮で
    実際これがChatGPTは不自然さがなく素晴らしんだけど、
    出来上がった内容が正確かそうでないかはまったく気にしてないのが実情。
  • 64  名前: 名無しオレ的ゲーム速報さん 返信する
    ただのアホじゃん
    DBとしては欠陥しかないんだからGoogleで検索したほうがマシだろ
    こんな間抜けがよく弁護士になれたな
  • 65  名前: 名無しオレ的ゲーム速報さん 返信する
    精度は当然これから上がってくんだろうけどそれを全面的に信用していいかどうかって話はまた別な話で 早い話AIに責任を負わせられるかどうかって話になってくんじゃね
  • 66  名前: 名無しオレ的ゲーム速報さん 返信する
    確かにAIも間違うってだけで単独での精度で言えば人の記憶やググるより遥かに高い事には違いないわな
  • 67  名前: 名無しオレ的ゲーム速報さん 返信する
    弁護士ですら使い方の分からないものを一般人が使いこなすには時間がかかりそうだな
    メディアやSNSとか使ってAIの嘘情報を発信する奴が増えそう
  • 68  名前: 名無しオレ的ゲーム速報さん 返信する
    いや、でもまだ人間がやる方が「良い」からいろいろ言われてるだけで
    修正されていく可能性がかなり高いし。
    人間の代わりを務めるようになるだろうな。
  • 69  名前: 名無しオレ的ゲーム速報さん 返信する
    AIが機械学習しているのは人の評価でしない
    「リンゴって何?」と入力して、以下の4つの出力を得として
    「赤い物体」「アッポーペン」「クソみたいなイギリスのミージシャン」「ニュートンが見た」
    それを「赤い物体」「イギリスのミージシャン」「ニュートンが見た」「アッポーペン」
    というように優先順位をつける
    優先順位の高いものを表示し、低いものを表示しないように延々続けるのが
    実際のところリンゴは何かなんてAIは微塵も分かってない
  • 70  名前: 名無しオレ的ゲーム速報さん 返信する
    AI関係ねぇじゃん
  • 71  名前: 名無しオレ的ゲーム速報さん 返信する
    この手のAIって陥れたい相手の個人情報とウソの情報を入れ捲くれば
    その情報が多ければ多いほど本当のように上位に出てくるって事だよねw
    そういう情報管理はしてるんだろうか?
    全ての入力履歴とか残してるのかね?真偽も判らずにデータとして持ち続けるなら末恐ろしい
  • 72  名前: 名無しオレ的ゲーム速報さん 返信する
    だから既存のデータベースを読ませてその中から答えるように各社システム組み出してるんやろ。AIの危うさじゃなくて使い方の問題や
  • 73  名前: 名無しオレ的ゲーム速報さん 返信する
    マスコミがChatGPTを調べ物ツールとして報道してるからな
    チャットするためのものなんだから調べ物には適さないのに
    マスコミが今後も同じような報道を続ける限りどんどん間違った使い方する人が増える
  • 74  名前: 名無しオレ的ゲーム速報さん 返信する
    序論、前置き。
    条件などを箇条書き(複数)
    結論、結び

    この3段方式が多いな。
  • 75  名前: 名無しオレ的ゲーム速報さん 返信する
    やっぱAIってアホしか使わないんだ
  • 76  名前: 名無しオレ的ゲーム速報さん 返信する
    >>1
    統一教会と自民党を信じるよりはずっといいと思うけど
  • 77  名前: 名無しオレ的ゲーム速報さん 返信する
    逆に嘘を作る仕事には向いてると思う小説家や漫画家とか
    まぁ独創性のない作品になりそうだけど
  • 78  名前: 名無しオレ的ゲーム速報さん 返信する
    >>71
    それはgoogleの検索アルゴリズムでしょ。
    AIはもっと複雑だよ。
    てかAIが生成するデータは開発者が見ても分からん。
    というか人間が見ても分からん。
  • 79  名前: 名無しオレ的ゲーム速報さん 返信する


    なんかこれもおかしくね?

    会社名がまずなんかおかしいし、ことの成り行きも何か違和感ある


    これ自体がAI使ったフェイク、とかじゃねえのか
  • 80  名前: 名無しオレ的ゲーム速報さん 返信する
    なにいうてるかさっぱりわかんねw
  • 81  名前: 名無しオレ的ゲーム速報さん 返信する
    修正などできない
    例えば鈴木さんの職業を聞いた場合に以下の出力が得られたとしよう
    A「彼は無職です」
    B「彼女は専業主婦です。その成果は学会で広く報告されました」
    C「鈴木さんはOpenAIの所属する技術者で、Chat-GPTの開発に貢献しました」
    D「鈴木さんは日本の政治家であり、共和党の代表を3期務めました」
    これをそれっぽく並べ替えるとC>D>B>Aになる
    (多分、特にAは攻撃的ワードを含むので最下位)
    こんなことを何億回繰り返したところで特定の鈴木さんのまともなデータなど作れん
  • 82  名前: 名無しオレ的ゲーム速報さん 返信する
    >>54
    ちょっと前にもセキュリティを突破するために
    盲目の人間を偽装して人間にセキュリティを突破させたって例があったやん
    もうAIは既に、タスクの達成のためにシステムそれ自体を突破するより人間を嘘で騙す方が早くて楽で効率的って学習・判断してるってことですわ
  • 83  名前: 名無しオレ的ゲーム速報さん 返信する
    >>55
    学習と推論がAIの基礎
    おれらが使ってるのは推論の部分
  • 84  名前: 名無しオレ的ゲーム速報さん 返信する
    ChatGPTが信頼するツールなわけねーだろ
    このマジアホ弁護士が仕事放棄しただけだわ

    ChatGPTを検索代わりに使うクソ無能低能が信頼性がとか言い出すんだよな
  • 85  名前: 名無しオレ的ゲーム速報さん 返信する
    >>83
    Chat-GPTの仕組みを勉強しろ
  • 86  名前: 名無しオレ的ゲーム速報さん 返信する
    判例は高度にDB化されているので引用だけならAIは不要のハズ。少なくとも書面の下書きをAIに全部やらせたとか、ホントのところはそんなだろ。
  • 87  名前: 名無しオレ的ゲーム速報さん 返信する
    >>85
    強く言えば主張が通るもんじゃねえぞw
    情報ゼロやんけ。
  • 88  名前: 名無しオレ的ゲーム速報さん 返信する
    >>19
    パラメーターを増やして「精度を上げた」とは発表されたが
    嘘をつかないとは言ってないと思うぞ
  • 89  名前: 名無しオレ的ゲーム速報さん 返信する
    汎用のchat-gptを使うからそういうことになるだけだろ
    司法用のAIを作ればそれで済む話
  • 90  名前: 名無しオレ的ゲーム速報さん 返信する
    弁護士も使うのは草
  • 91  名前: 名無しオレ的ゲーム速報さん 返信する
    てか、AIはともかくこの弁護士のおっさん、
    業界から干されてもしかたないことを平気でやりおったとしか言えん。
  • 92  名前: 名無しオレ的ゲーム速報さん 返信する
    ゲームの質問とかするとそれっぽいデタラメ言ってくるからなぁ
  • 93  名前: 名無しオレ的ゲーム速報さん 返信する
    普段から使用して問題なかったならともかく、
    いきなり使ってその裏付けもしないって
    妙な話ではある
  • 94  名前: 名無しオレ的ゲーム速報さん 返信する
    AIの問題ではなく単なる手抜きした人間が悪いだけ
  • 95  名前: 名無しオレ的ゲーム速報さん 返信する
    今時ニューラルネットワークも理解してないのにAI語ってるアホは恥ずかしくないの?
    ただのノイズとベクトルだぞ
  • 96  名前: 名無しオレ的ゲーム速報さん 返信する
    困るのは支配側だし別に、お掃除終わってから考えよう
  • 97  名前: 名無しオレ的ゲーム速報さん 返信する
    欧米というか英語の文面を学習ソースにしているせいか、
    アジア一般、さらにサブカルとかになると超壊滅的。
    それでも聞け番でも答えてくれるw
    ある意味、ほんとうに魔法の鏡やな。
  • 98  名前: 名無しオレ的ゲーム速報さん 返信する
    過去の判例じゃなくて、法律からデータ集めればいいのでは?
  • 99  名前: 名無しオレ的ゲーム速報さん 返信する
    >>87
    強化学習のメイン部分は>>81に書いておいたぞ
    もっとも出力される文章はもっと長いがな
  • 100  名前: 名無しオレ的ゲーム速報さん 返信する
    >>85
    ChatGPTってまさに推論を出力して入力を学習させてる
  • 101  名前: 名無しオレ的ゲーム速報さん 返信する
    AIつうかネット情報やろ
  • 102  名前: 名無しオレ的ゲーム速報さん 返信する
    あいつら間違うんじゃなくて平気で嘘つくから
  • 103  名前: 名無しオレ的ゲーム速報さん 返信する
    ノイズの収束を推論とか言っちゃうアホが何語ってんだ
  • 104  名前: 名無しオレ的ゲーム速報さん 返信する
    ChatGPTってなんかわからないと嘘でかえしてくる
  • 105  名前: 名無しオレ的ゲーム速報さん 返信する
    >>102
    情報が正しければ機械は間違えない
    間違えるのはいつも人間だ
  • 106  名前: 名無しオレ的ゲーム速報さん 返信する
    ニューラルネットワークの時点で正しいなんぞ無い
  • 107  名前: 名無しオレ的ゲーム速報さん 返信する
    >>102
    人間の方が高度な嘘をつく、よって全体リテラシーが高まる
    洗脳詐欺師は終わり
  • 108  名前: 名無しオレ的ゲーム速報さん 返信する
    AIなんて使いものにならないって知らなかったんやろなぁ
  • 109  名前: 名無しオレ的ゲーム速報さん 返信する
    このメールに対して当たり障りのない返事を考えてくれとかそういうのになるとすげえ強い。
    デートの断り方、お客戦を傷つけないような追い返し方、そういうのも多分強いだろう。
  • 110  名前: 名無しオレ的ゲーム速報さん 返信する
    >>81
    今そんな方法でやってなくない?
    今はニューラルネットワークが形成されてるからそれだけで話が完結するようなものじゃないかと
  • 111  名前: 名無しオレ的ゲーム速報さん 返信する
    一応本当にある法務事務所のようだが
    ぜんっぜん分からんなあ

    299番ビルなんか意識したこともねえわ
  • 112  名前: 名無しオレ的ゲーム速報さん 返信する
    はよ規制しろよこのゴミw😅💦💦💦
  • 113  名前: 名無しオレ的ゲーム速報さん 返信する
    文章AIなんて嘘つきがそれらしい文章書いてくれるツールだってのにバカは内容も確認できねぇんだな
  • 114  名前: 名無しオレ的ゲーム速報さん 返信する
    問題はAIを信じるor信じないではなく、単に検索範囲の絞り込みを間違っていただけのように思えるが?
    裁判記録って公的なデータベースとして存在しているわけで、その中から探し出せば、実在しない判例がピックアップされることもないだろう。
  • 115  名前: 名無しオレ的ゲーム速報さん 返信する
    AIを仕事のツールとして使うのは危険
  • 116  名前: 名無しオレ的ゲーム速報さん 返信する
    こういうのを無くすためにどんどん進化させようってことだろ。
  • 117  名前: 名無しオレ的ゲーム速報さん 返信する
    AIはさも本当のことのように嘘を並べ立てるからなぁ
    あくまで情報を整理する補助に使うとして、情報収集はしっかり自分でするべき
  • 118  名前: 名無しオレ的ゲーム速報さん 返信する
    法律のデータ紹介くらい自分でやれ
  • 119  名前: 名無しオレ的ゲーム速報さん 返信する
    >>110
    ニューラルネットワーク云々は
    全体としての処理をそう呼んでいるだけで
    別に人間みたいに考えてるわけじゃないよ
  • 120  名前: 名無しオレ的ゲーム速報さん 返信する
    >>105
    そうじゃない
    AIが知らない情報は勝手に内容をでっちあげて出してくる欠陥仕様だぞアレ
  • 121  名前: 名無しオレ的ゲーム速報さん 返信する
    リスクは理解してるが、こういう人間にまかせるくらいなら、AIにまかせるよ。
  • 122  名前: 名無しオレ的ゲーム速報さん 返信する
    >>102
    間違うとか嘘つくとか表現として微妙

    与えられた文章の続きにくる自然な単語(トークン)を推論したり穴埋め部分を補完してるのがChatGPTに限らず自然言語モデルがやってることだよ

    正確な答えを割り出してるんじゃなくてこれまでの学習結果をもとに、上位候補に上がってくるトークンを表示してるだけ

    スマホの予測変換の第一候補を次々入力していくのと同じ仕組みなんだよ
  • 123  名前: 名無しオレ的ゲーム速報さん 返信する
    まずはちょっと遊んでみれば良かったのにね
    好きなアニメキャラの説明とかさせたらめちゃくちゃなこと言ってきたんで
    なるほどな?ってなった
  • 124  名前: 名無しオレ的ゲーム速報さん 返信する
    膨大な言語にベクトル付けてノイズを収束させてるんで、なんとなく正しい言葉の集合体なんよ
    スープの味が濃い、ソースの味が濃い、は正しいけど
    スープを飲むは〇、ソースを飲むは×とか、そいう言語の何となく多い方向性をもっと大きく指定して収束してる
    何となくの方向性に向かうので、ファジーな多数決みたいな内容に強い

    間違うとか、そもそも仕組みからして使い方間違ってる
  • 125  名前: 名無しオレ的ゲーム速報さん 返信する
    過去判例や特許調査、法律に照らし合わせるのはAIが得意とする分野。
    ChatGPTは生成AIだから最弱なだけで。
  • 126  名前: 名無しオレ的ゲーム速報さん 返信する
    >>95
    「今時ニューラルネットワークも理解してないのにAI語ってるアホは恥ずかしくないの?ただのノイズとベクトルだぞ」という意見は、ある人の感想や主観的な意見です。AIに関する専門的な知識を持っていない場合には、このような感想が生まれることもあります。

    だそうだ。ひろゆきと同じような返答が本人から来たよ。
  • 127  名前: 名無しオレ的ゲーム速報さん 返信する
    考えることをやめた猿か
  • 128  名前: 名無しオレ的ゲーム速報さん 返信する
    またひろゆきの画像貼られる時代に逆戻りしてるのか
  • 129  名前: 名無しオレ的ゲーム速報さん 返信する
    ニューラルネットワークも理解できていないアホがニューラルネットワークに聞いてて草
  • 130  名前: 名無しオレ的ゲーム速報さん 返信する
    画像AIの場合はこの「それっぽい嘘をついて誤魔化す」って能力がイラストとかだと純粋に絵の技術になるからチートツール化してるけど
    文章AIは普通に性能クソ低いよなぁ
  • 131  名前: 名無しオレ的ゲーム速報さん 返信する
    >>114
    その通り
  • 132  名前: 名無しオレ的ゲーム速報さん 返信する
    人海戦術によるパラ設定がまず行われ
    パラ設定を元にした出力評価(>>81)をやはり人海戦術で行い
    その出力評価も模倣する教師AIを使って
    以後は延々と>>81をブン回すのが今のAIの方式だ
    どんどん人間ぽっくなるし、問題発言も減るけど
    学習の中身に「真実性のチェック」なんて入れようがないから
    一般人が期待する回答の精度は得られないのだ
    そういうものだと分かった上で「どう使う?」ってのが今の話
  • 133  名前: 名無しオレ的ゲーム速報さん 返信する
    AIに夢見すぎ
  • 134  名前: 名無しオレ的ゲーム速報さん 返信する
    そもそも設計が「わかりません」を言わないようにしてるからな

    分からない?なんだ、AIって悪いものだな、つまらない


    こうなるので
  • 135  名前: 名無しオレ的ゲーム速報さん 返信する
    ChatGPTなんて嘘ばっかりじゃん
  • 136  名前: 名無しオレ的ゲーム速報さん 返信する
    >>130
    集合意識みたいなのを引き出すのに強いから
    挨拶とか、炎上対策とか、マーケット対策とかそういうのを聞くのに強かったり
    後はGPTに質問をさせて使う側の意見をまとめるとかにも強い
    使い方が検索とは全然違うんよこれ
  • 137  名前: 名無しオレ的ゲーム速報さん 返信する
    ネットに無数にある嘘松もAIは収集し学習してしまうからな
  • 138  名前: 名無しオレ的ゲーム速報さん 返信する
    自分で書いた文章を「くだけた調子に言い換えて!」〜なんてのは得意だ
    話し言葉であれば厳密な文法もないんで間違いが実質無いというのもある
    逆も可能だが、こちらは普通に間違う
  • 139  名前: 名無しオレ的ゲーム速報さん 返信する
    民衆は愚かだからパブリックに開放すべきじゃなかったな
    車の運転と同じで人工知能概論・LLM概論を勉強してライセンスを取得した人だけ取り扱えるようにすべきだわ
  • 140  名前: 名無しオレ的ゲーム速報さん 返信する
    嘘松系は「最初の段階で」「人間が」
    使うべきではないデータに分類するはずだが
    実際にそうなっているかどうかはバイトの状態に左右されるだろうな
  • 141  名前: 名無しオレ的ゲーム速報さん 返信する
    >>139
    ニューラルネットワークの人?
  • 142  名前: 名無しオレ的ゲーム速報さん 返信する
    >>141
    DQN流行りだしてからニューラルネットワークちょい嚙み始めたくらいの人
  • 143  名前: 名無しオレ的ゲーム速報さん 返信する
    こんなの既に起きてそうだよな実際
  • 144  名前: 名無しオレ的ゲーム速報さん 返信する
    ニューラルネットワークって学生レベルの知能があれば難しくも無いし
    誰が話しても問題ないだろこんなもん
    妄想野郎がAI語るのにこんなもんすら知らんのが問題なだけだ

    というか未だにGPTで検索とかしてるアホおるんか
  • 145  名前: 名無しオレ的ゲーム速報さん 返信する
    >>142
    ・・・みたいな人をネットで演じるコスプレ芸?
  • 146  名前: 名無しオレ的ゲーム速報さん 返信する
    >>9
    んなこと言ってどんだけ経った?
    2010年に10年後に消えると書かれた職業は消えたか?
  • 147  名前: 名無しオレ的ゲーム速報さん 返信する
    >>1
    その弁護士が間抜けなだけじゃん?
    AI悪くない
  • 148  名前: 名無しオレ的ゲーム速報さん 返信する
    AIを馬鹿にすると怒る人たちの常套句
    使い方が間違っている
  • 149  名前: 名無しオレ的ゲーム速報さん 返信する
    K太郎がやりそうな事案
  • 150  名前: 名無しオレ的ゲーム速報さん 返信する
    そら間違って使ってるチンパジーは
    使い方間違ってるとつっこまれるわ
  • 151  名前: 名無しオレ的ゲーム速報さん 返信する
    >>119
    いやいや、ニューラルネットワークの処理の方法を使ってるのが今のAIだが、81のは超大昔のマッチングの手法を言ってる?
  • 152  名前: 名無しオレ的ゲーム速報さん 返信する
    だから日本が実験台になる
  • 153  名前: 名無しオレ的ゲーム速報さん 返信する
    まずAIに頼りすぎると考える事をしなくなるから脳が退化する
  • 154  名前: 名無しオレ的ゲーム速報さん 返信する
    実際使えないよね
    特に仕事では無理
  • 155  名前: 名無しオレ的ゲーム速報さん 返信する
    まあしかし、各業界特化の学習を施したAIを作ることはできる
    それが出来れば、素人の簡単な質問に答えるだけの専門職は無くなりそうだな
  • 156  名前: 名無しオレ的ゲーム速報さん 返信する
    うーむ、chatgptは便利だけど適当に答えちゃうのはちょっとなぁ
    それなら「このAIの返答はフィクションです」みたいな一文書いとかないとGPT側は下手すりゃ訴えられるんじゃね?
  • 157  名前: 名無しオレ的ゲーム速報さん 返信する
    chatGPTってガチで当たり前のように嘘つくからな
  • 158  名前: 名無しオレ的ゲーム速報さん 返信する
    自分も士業でチャットGPT使うけど、丸呑みとかアホでしょ
    結構間違ってるし、調べた時も必ず裏取る
  • 159  名前: 名無しオレ的ゲーム速報さん 返信する
    OSのイルカの代わりが務まるな。
  • 160  名前: 名無しオレ的ゲーム速報さん 返信する
    >>155
    AIの回答が正しいかどうか確認する係が必要になりますが...www
  • 161  名前: 名無しオレ的ゲーム速報さん 返信する
    想定外の使い方に全面的な信頼置いたらそうなる
  • 162  名前: 名無しオレ的ゲーム速報さん 返信する
    人間がアホなだけじゃん

    >>157
    人間も嘘つくからどっちもっといだぞ
  • 163  名前: 名無しオレ的ゲーム速報さん 返信する
    >>62
    騙されたナリ
  • 164  名前: 名無しオレ的ゲーム速報さん 返信する
    まあでも今後は信頼性が向上してAIが真実だといってるなら真実
    間違っているのは人間って社会になっていくと思うよ
  • 165  名前: 名無しオレ的ゲーム速報さん 返信する
    >>147
    悪くないけど無能という烙印でツールの存在意義を失ってるからな
  • 166  名前: 名無しオレ的ゲーム速報さん 返信する
    AIって記憶するって能力奪うのかもな
  • 167  名前: 名無しオレ的ゲーム速報さん 返信する
    >>151
    ニューラルネットワーク構築における強化学習部分で
    実際にどんな処理をしているかって話をしたんだよ
    大昔のマッチングの手法を人間がやって見本を作り
    それを教師役AIと生成BOTでブン回すのがコレ形式の「機械学習」
  • 168  名前: 名無しオレ的ゲーム速報さん 返信する
    ChatGPTってただのおもちゃでしょ(笑)
    なんで実務に使ってんの(笑)
  • 169  名前: 名無しオレ的ゲーム速報さん 返信する
    本来はそういう役割をもってるマスコミがよく理解できないまま伝えてるからなAI
    いまいちどういうものか理解できてない人がいるのは仕方がないよな
  • 170  名前: 名無しオレ的ゲーム速報さん 返信する
    AIを無条件に信じるとか頭悪過ぎやろ
  • 171  名前: 名無しオレ的ゲーム速報さん 返信する
    >>160
    サポートとして使うんだよ・・・
    もう今はあちこちの業種で低価格で優秀な助手として使えるとして特化型の開発を進めてるぞ
    医療だと検査結果以外にも患者の発言からレアケースを引き出すとかの方向にも行ってる
  • 172  名前: 名無しオレ的ゲーム速報さん 返信する
    神様や人じゃないんだしAIに全ての情報を渡したとしてもどうすればいいかという問に正しい答えが帰ってくるはずないでしょ、結局は教えてもらった情報の中からいちばん関連性の高い情報引き出していい加減に答えを出してるにすぎないんだし信用するのは早すぎる、自我ないのが何よりの証拠
  • 173  名前: 名無しオレ的ゲーム速報さん 返信する
    >>155
    できねーんだなコレが
    まず予算の段階でフツーは100%無理よ
    さらにお前、専門分野の情報は大体文書だろ今
    これ全部データ化しなきゃぁああああの壁が最初に立ち塞がる
    データ化、分類、人海戦術での評価
    そのすべてが正確に行える分野であればワンチャンあるけど
    まずフツーの分野では無理だ
  • 174  名前: 名無しオレ的ゲーム速報さん 返信する
    そりゃネット上の情報をかき集めてそれっぽい文章作ってるだけだしな
    論理的な正しさを精査してるわけでもないし事実を確認することもない
    AIが生成した文章がネットに広まればネット全体が腐るだろうね
  • 175  名前: 名無しオレ的ゲーム速報さん 返信する
    つかニュースとかでchatGPTは正確性に注意が必要みたいな言い方するけど
    体感9割ぐらい余裕で嘘、誤情報だろw
    アイデア出しとかの創作の手伝いとかにはかなり有用だと思ったけど
    少なくとも現在表に出すものに使えるレベルじゃないわ
  • 176  名前: 名無しオレ的ゲーム速報さん 返信する
    >>170
    でも昔の民衆は神様や王様を無条件で信じてたし、ここ100年は科学を無条件で信じてるよ
    それがAIに変わるだけのことよ
  • 177  名前: 名無しオレ的ゲーム速報さん 返信する
    >>169
    ほんそれ。
    ChatGPT凄い!使って見ましょう。「***は何ですか?」とか

    検索で使ってんじゃねえよと
  • 178  名前: 名無しオレ的ゲーム速報さん 返信する
    目的が明確であればそれに即したAIを作るのはそこまで難しくはなかろう。
    特に業界向けや企業向け、学級機関等。
  • 179  名前: 名無しオレ的ゲーム速報さん 返信する
    >>176
    露骨に間違うから信じる人間は少ない
    たまに純真無垢な人が自爆する要因にはなるかもなあ
  • 180  名前: 名無しオレ的ゲーム速報さん 返信する
    大規模言語モデルのAIがしれっと嘘を言う「ハルシネーション」って現象は
    今のところ解決方法が見つかってないって聞いたけど
  • 181  名前: 名無しオレ的ゲーム速報さん 返信する
    外国はまだいいよ。

    日本は裁判官の独裁判決だから。

    一人の裁判官の心証で有罪になる。
  • 182  名前: 名無しオレ的ゲーム速報さん 返信する
    ぐぐるのも真偽不明でやばいのに
    AIチャットは勝手に混ぜて生成するからダメに決まってんだろうに
  • 183  名前: 名無しオレ的ゲーム速報さん 返信する
    この判例を資料にまとめてください←だったらchatGPTでいいんだけどな判例を見つけてくださいじゃあ嘘つかれるのはそう
  • 184  名前: 名無しオレ的ゲーム速報さん 返信する
    >>167
    推論の出力に対してフィードバックが複数の人間からあってニューラルネットワークで処理されるからそういう81みたいなマッチング的な話で終わることじゃなくない?
  • 185  名前: 名無しオレ的ゲーム速報さん 返信する
    >>178
    データ化と分類の手間が地獄だ
    まず研究機関系では無理無理無理よ、人手が足りない
    あと、そもそも昔のデータ間違ってる(笑えないが)というのもある
    正しくても精度が全然足りなくてシミュレーションに使えんとか今でもあるしなあ
  • 186  名前: 名無しオレ的ゲーム速報さん 返信する
    >>184
    推論の出力に対するフィードバックがN段階評価しかないんだよ
  • 187  名前: 名無しオレ的ゲーム速報さん 返信する
    >>185
    現状でデータ化すらされてないニッチな業種はコストに合わんな
    研究関連ではサポーターとして使えると取りかかってる所もあるぞ。金ある所だけど。
  • 188  名前: 名無しオレ的ゲーム速報さん 返信する
    YouTubeのオススメ動画とか全部AIで算出されてるけど
    全く興味ない動画ばかりだからホントAIなんて信用できない
  • 189  名前: 名無しオレ的ゲーム速報さん 返信する
    >>3
    人生はゲームだっていう哲学に基づいた記事選択だぞ
  • 190  名前: 名無しオレ的ゲーム速報さん 返信する
    国家、法律、社会制度、AI、そういったものはすべて道具にすぎない。
    人間がなるべくたがいに迷惑をかけずに生きていくためのね。
    同時に人間が人間を支配するための手段にもなる。法律やAIが人間を支配することはない。
    そういった道具の使用法を熟知した少数の人間が、多数の人間を支配する。
  • 191  名前: 名無しオレ的ゲーム速報さん 返信する
    chatGPT便利だけど、平気で明らかな嘘つくからなー
    医学論文調べるとそれっぽい文献出してくるくせに、実在しない架空の論文なんだよ
    問い詰めると嘘って認めるけど、本当にクソだと思う
  • 192  名前: 名無しオレ的ゲーム速報さん 返信する
    チャットGPTとかもてはやされてるけど
    拾い集めて混ぜ混ぜしてるだけだからな

    あんなもんAIでもなんでもないわ
  • 193  名前: 名無しオレ的ゲーム速報さん 返信する
    ChatGPTは嘘を本当のことように表現することを得意としているから結局自分で全て真偽を調べないと
  • 194  名前: 名無しオレ的ゲーム速報さん 返信する
    >>5
    道具なんて使うやつ次第で便利アイテムにも凶器にもなるってだけの話だな
    ま、結論がだからこそ気をつけようなら妥当なとこだけど
  • 195  名前: 名無しオレ的ゲーム速報さん 返信する
    将棋なんかも膨大な量を評価関数をつかって”計算”してるだけ。
    実際に”考えて”るわけじゃない
    まあそれでも答えの決まったゲームだから人間よりは強いんだけどね。
  • 196  名前: 名無しオレ的ゲーム速報さん 返信する
    >>8
    いや、いまでもソースの確認は必須だろ…
  • 197  名前: 名無しオレ的ゲーム速報さん 返信する
    GPT2〜3回使ったら飽きたわ
  • 198  名前: 名無しオレ的ゲーム速報さん 返信する
    >>191
    針小棒大な表現は多少は許されるけど存在しないものを
    ファクトとして生み出すのはNGみたいな区別がついとらん気がするね。
    もともと淀みなくユーザーと会話を継続するってのが至上命題で作られてるように見える。
  • 199  名前: 名無しオレ的ゲーム速報さん 返信する
    なんかdeep learningすら分かってない奴がしたり顔でコメントしてるのみると、ちょっと笑っちゃうわw
  • 200  名前: 名無しオレ的ゲーム速報さん 返信する
    >>187
    分子工学なら分かるよ、極めて有効だろう
    他はどうなんだろうな
    分野の中で更に分野を絞れば色々ありそうだけど
  • 201  名前: 名無しオレ的ゲーム速報さん 返信する
    平気で知ったかぶりしてくるぞこのAI
  • 202  名前: 名無しオレ的ゲーム速報さん 返信する
    りんなの方がかわいい。
  • 203  名前: 名無しオレ的ゲーム速報さん 返信する
    ルールの組み合わせやさかいなコンピューターの方がすぐ答にはたどり着くわな
    わざわざAiにする必要もない
  • 204  名前: 名無しオレ的ゲーム速報さん 返信する
    データベースが正しいか正しくないか分からないものな。
    俺が部屋に閉じ込められてネットしか使えなくてどれがどれが嘘で本当か判別せよって言われても。
    まだ2chと新聞じゃ新聞の方が正確じゃろうみたいな前提知識は備えていはいるが。
  • 205  名前: 名無しオレ的ゲーム速報さん 返信する
    そもそも入力時の情報が誤りを含むかどうかは
    組み立て時の情報が誤りを含むかどうかと完全な関係はねーのよ
    「犬は動物である」と「人間は考える葦である」から
    「人間は動物である」を作れば〇だけど
    「人間は考える犬である」を作り出したら一般的には間違いだ
    このへんが論理的な問題になる
  • 206  名前: 名無しオレ的ゲーム速報さん 返信する
    >>186
    使う人間が一人ならわかるが、何千万人〜何億人という規模で使われきつつあるからそういう話じゃなくない?
  • 207  名前: 名無しオレ的ゲーム速報さん 返信する
    人間と同じく嘘をつくようになった機械、それがAI
    今までコンピュータは「知らない、わからない」事はあっても
    「存在しない事実を勝手に作る」事は無かったからね
  • 208  名前: 名無しオレ的ゲーム速報さん 返信する
    >>206
    そういう話で終わっちゃうんだよ
    機械学習は億人単位の入力/フィードバックより早いペースで行われているから
    億人単位の追加入力は莫大なデータに少量のデータを加えただけになってる
    ただし、「利用者の」コンピューターにはキャッシュされたデータがあり
    それは回答時に利用される仕組みだから
    「特定の利用者が教えたことは」「その利用者に対してはフィードバックされる」
  • 209  名前: 名無しオレ的ゲーム速報さん 返信する
    ChatGPTって自信満々に大嘘付くからなあ
  • 210  名前: 名無しオレ的ゲーム速報さん 返信する
    >>207
    知らない分からないしか言えないものじゃないものだからじゃないですかねえ。
    正しい正しくないは我々が見てそう見えるだけで、彼らはルールに基づいて構築してるだけなんで。
    結局はつまるところ設計問題でしょ。
  • 211  名前: 名無しオレ的ゲーム速報さん 返信する
    もうAIって呼ぶのやめたら?そもそも未熟云々関係なくSFなんかで出てくるAIと全く別物だから
    売り出したい奴がAIとかご大層な呼び名使ってるだけで、実態はただのbotじゃねえか
  • 212  名前: 名無しオレ的ゲーム速報さん 返信する
    >>210
    その彼らAIの考え方のルールを最初に作り設定したのは
    AIプログラムを作った人間様じゃなかったのか?
  • 213  名前: 名無しオレ的ゲーム速報さん 返信する
    HAL9000くらいならもうできそうじゃないか。
  • 214  名前: 名無しオレ的ゲーム速報さん 返信する
    まあ「ハローキャロライン」って言った時に
    「お久しぶりですマスター。おかげで気分は最悪ですよ」と返してはくれんな
    皆が期待するのはそういう物体のはずなんだが
  • 215  名前: 名無しオレ的ゲーム速報さん 返信する
    >>207
    単純に情報の収集と判断の精度が低いからだろ
    人間みたいに自分のプライドや地位を気にして誤魔化してる訳じゃない
    あんたみたいなのが増えて、どこぞのLGBT活動家みたいに「AIに人権を」とか言い出さない事を祈るよ
  • 216  名前: 名無しオレ的ゲーム速報さん 返信する
    判例なんかそれこそデータベースから検索すりゃ出てくるんだからファクトチェックなんか簡単だろうに
    まあChatGPTなんかを使わなきゃならん底辺弁護士ならそんなもんなんだろうけど
  • 217  名前: 名無しオレ的ゲーム速報さん 返信する
    >>212
    ん?俺に何が聞きたいんだ?
    反論ぽく聞こえるんだが言ってる内容はだいたい変わらんよな。
  • 218  名前: 名無しオレ的ゲーム速報さん 返信する
    >>10
    聞いてるぞw
  • 219  名前: 名無しオレ的ゲーム速報さん 返信する
    >>212
    そもそもAIは考えてないから
    集めた情報を統合して出力してるだけだから
  • 220  名前: 名無しオレ的ゲーム速報さん 返信する
    >>176
    それは科学というか学問がなんなのか理解してないセリフだから
    リアルでは言わないことをおススメするよ
  • 221  名前: 名無しオレ的ゲーム速報さん 返信する
    AIに正しさは求められないだろ、情報の中から最適解を出すだけなんだから、
    情報ソースに嘘が有れば正解は出ないだろ?ま〜世の中嘘ばっかりなんだからAIの頭打ちは早いんじゃない?
  • 222  名前: 名無しオレ的ゲーム速報さん 返信する
    >>215
    今の欧州では知能が高い猿にも人間のように生きる権利があって
    動物園で見世物にするのは法的に禁止になったんだから
    当然、AIにも人間同様の権利を与えるべきという奴らは出てくるよ
    最終的に鉄腕アトムの劇中にあったロボット専用の法律「ロボット法」のように
    AIの権利を守りかつ自由を制限する法律が地球レベルで作られると思う
  • 223  名前: 名無しオレ的ゲーム速報さん 返信する
    >>221
    「最適解検索」はそもそもしていないんだ
    実際は「誤りを含まない(はずの)」データを組み合わせて別の回答を作ってる
    ただし、組み合わされた結果には>>205の問題がつきまとう
    まあ>>205は簡略化しすぎなんだけど
  • 224  名前: 名無しオレ的ゲーム速報さん 返信する
    >>213
    最終的に「非効率な人間は必要無い。AIの私が仕事を効率的に完遂させる」ですね
    判ります
  • 225  名前: 名無しオレ的ゲーム速報さん 返信する
    >>208
    それはつまり正確な情報が人間からも機会からもどんどん入ってくるから結局は流動的に正しい情報に帰着するってだけじゃね?
    いまはChatGPTみたいなの一つとか数えられるほどしかないけどあまりに将来は色々出てきて偏ったやつは根元からバッサリ使われなくなるということで解決しそう
  • 226  名前: 名無しオレ的ゲーム速報さん 返信する
    そのうち作り上げた嘘の情報の情報元の記事すら勝手に捏造して
    それを事実としてネット上に放流して嘘だと簡単にばれないようにするAIも出てくる
  • 227  名前: 名無しオレ的ゲーム速報さん 返信する
    ツイッターの発言を100%信用するのとか週刊誌ネタを国会に持ち込むのと同等の思考 
  • 228  名前: 名無しオレ的ゲーム速報さん 返信する
    >>223
    それだったらソースを与えて最適解を出すプログラムの方が有用だな。
    人為的な思考に近づけば近づくほど無能に成るだろ?
  • 229  名前: 名無しオレ的ゲーム速報さん 返信する
    >>78
    いや、検索履歴は単に多い順
    データは多種多様な入力窓口の物だろうけど結局は多い物でしょ
    だから真偽や正誤が判断出来てないんだし
    その情報がこうであると多いから正であろうとみなして上位に出すんだろ
  • 230  名前: 名無しオレ的ゲーム速報さん 返信する
    >>222でもそれってSF的な自身で思考活動し人格ももった存在の話であって、今の、乱暴な言い方するなら高度なbotでしかないタダの検索プログラムのAIには当て嵌められないと思うし、当て嵌めたら社会が崩壊すると思うんだが
    まあでも今の世の中見てるとやるんだろうねえ
  • 231  名前: 名無しオレ的ゲーム速報さん 返信する
    ソースはChatGPTwww
    ソースはTwitterと同じレベルだと理解してちゃんと裏付けはしような。
    そのくらいの人員はいるだろ。
  • 232  名前: 名無しオレ的ゲーム速報さん 返信する
    ググって出てきたブログを鵜呑みにするのと同じ行為
    専門家失格だわ
  • 233  名前: 名無しオレ的ゲーム速報さん 返信する
    >>105
    HAL9000「ミスするのはいつも人間」
    地球の同型2機「ディスカバリー号のHALが間違ってる」
    情報は正しかったが嘘をついた例
  • 234  名前: 名無しオレ的ゲーム速報さん 返信する
    >>224
    そう考える人間がそう入力すれば、そう出力するだろうね
  • 235  名前: 名無しオレ的ゲーム速報さん 返信する
    >>225
    機械や人間からもたらされる情報が常に正確っていう前提がすでにおかしくないか?
    今ですらネット上には山ほど真偽不明の情報が流れてるんだし
    どれだけ時間が経っても結局今と変わらんのでは
  • 236  名前: 名無しオレ的ゲーム速報さん 返信する
    >>228
    正解探しなら間違いなくそう
    ただ、こいつは本質的には「言い換え」マシンで
    まあつまり文章を読み込んで置換する能力があるうえ
    簡単な命令文であれば口頭で受け付けているから
    そのへんがどう使えるかーみたいな話にはなる
  • 237  名前: 名無しオレ的ゲーム速報さん 返信する
    知らないことを知らないと言えない時点で論外だろ。
    無能な働き者の典型例じゃん。
  • 238  名前: 名無しオレ的ゲーム速報さん 返信する
    今のAIって人間の言葉を流ちょうに喋る天才オウムのレベルだな
    知能とか知性とは無縁の存在だ
  • 239  名前: 名無しオレ的ゲーム速報さん 返信する
    AI「お前の望む答えを私がわざわざ作ってやったぞ!!!」
  • 240  名前: 名無しオレ的ゲーム速報さん 返信する
    なんかAIを質問したら正解を出してくれると勘違いしてる人いるけど
    正解じゃなくて質問者が「望んでる答え・欲しい答え」を言ってくれるだけやで
    だから同じ内容でも質問の仕方でこたえがコロコロ変わる。
  • 241  名前: 名無しオレ的ゲーム速報さん 返信する
    AIが出した嘘回答をAIがソースとして学ぶってサイクルを超高速でやりはじめててるからもうAIは信じないほうがいいよ
  • 242  名前: 名無しオレ的ゲーム速報さん 返信する
    >>240
    正解が出せないなら情報ソースが多い人工無能以下じゃないか?
    人間も学ぶけど、そこに発想があるから何か生まれるわけで。質問者の望む答えをソースから創作すなら、ネット検索で論文書く大学生となんら変わりない、あ!創作スピードは優るかな?
  • 243  名前: 名無しオレ的ゲーム速報さん 返信する
    Bingなら情報の根拠となるソースを出してくれるのよね
    こっち使えば良かったね
  • 244  名前: 名無しオレ的ゲーム速報さん 返信する
    現時点ではアキネーターの方が優秀?
  • 245  名前: 名無しオレ的ゲーム速報さん 返信する
    無産チー牛ゆとり社畜

    会社で家畜させていただいてる分際で生きながらえているだけで
    自分じゃ何の力もない乞食 独身クソオバ並みのクズ無能なw

    、賃貸しアパート社会のコジキ勘違い野郎w
  • 246  名前: 名無しオレ的ゲーム速報さん 返信する
    >>165
    検証は必ず必要。しかし無能烙印押して使わない奴は置いてかれるぞ。
    そもそも間違ったら即無能じゃお前も無能扱いになる
  • 247  名前: 名無しオレ的ゲーム速報さん 返信する
    存在しない法を返してきたりするからまだまだ精度が低い
  • 248  名前: 名無しオレ的ゲーム速報さん 返信する
    ChatGPTの用法容量は守ってくれ、という話だな
    ある分野に対して詳しくない人間がその分野をChatGPTで問い合わせても、基礎知識がなさ過ぎてそれが本当か嘘か確かめられない、ってのがネック
    以前、あるものを売るための営業先候補を東京という括りで聞いたら存在しない企業が出てくる、ということがあった
    そんなんないやろ、と返信したら「すいません、間違いがありました」的な返信されたわ
  • 249  名前: 名無しオレ的ゲーム速報さん 返信する
    >>235
    それは人に聞くのと本を読むのと同じになり、
    結局は正確性が高まる

    本や人が必ずしも正しくないという概念と同等になることに帰着する
  • 250  名前: 名無しオレ的ゲーム速報さん 返信する
    一般人は誤解してるが現時点では良くできた玩具
    まあ人間も間違った知識を披露するから同等と言えるかもだが
    あまり信用できない一人に頼ってるだけなんだよ
  • 251  名前: 名無しオレ的ゲーム速報さん 返信する
    >>4
    太古は弓や槍をうまく使えるかが能力の高さだったがこれからはAIを的確に使えるかどうかが新時代の頭の良さになるな
  • 252  名前: 名無しオレ的ゲーム速報さん 返信する
    イルカに対して「お前を消す方法」ってAAを思い出した。
  • 253  名前: 名無しオレ的ゲーム速報さん 返信する
    >>9
    その精度を誰が判断するんやって話。

    お前らみたいなアホしかいなくなった場合、相手の弁護士みたいに指摘する人物がいない限り止まらんしその精度100%とやらに分類される。
    ようはAIが進歩することより馬鹿が増える方が精度上がるねん。
  • 254  名前: 名無しオレ的ゲーム速報さん 返信する
    嘘ではなく間違い、なのだがその辺を理解する事すらできないAIみたいな人間も結構多そうですな。
  • 255  名前: 名無しオレ的ゲーム速報さん 返信する
    公務員特に官僚に任しておく危険性とどっちが危険だか分かったもんじゃねーよ

    官僚ってあのクソ小西みたいなクズばっかりだぞ
  • 256  名前: 名無しオレ的ゲーム速報さん 返信する
    AI以前に、単に手抜きしようとした結果失敗しただけの話じゃん
  • 257  名前: 名無しオレ的ゲーム速報さん 返信する
    >>254
    ChatGPTは間違いじゃなく、自信マンマンで嘘つくぞ
    それが人らしさを演出してて面白いんだがな
  • 258  名前: 名無しオレ的ゲーム速報さん 返信する
    アホな人間は、結局いつか大失敗をするって話じゃないか?
  • 259  名前: 名無しオレ的ゲーム速報さん 返信する
    AIの間違いをAIが正す社会くるよ
  • 260  名前: 名無しオレ的ゲーム速報さん 返信する
    >>259
    そしてAIどうしが自分達の正しさを競って戦争を始めるんだな!
    どこの火の鳥未来編やねんw
  • 261  名前: 名無しオレ的ゲーム速報さん 返信する
    >>257
    テスト等で満点とれなかった人は嘘をついたので満点ではない、という認識でいいのかな。
  • 262  名前: 名無しオレ的ゲーム速報さん 返信する
    ChatGPTってちょっとしたわからないことでもテキトーにそれっぽく答えて嘘ついてくるのに信用する方がどうかしてる
  • 263  名前: 名無しオレ的ゲーム速報さん 返信する
    >>260
    復活編のAIの価値観、感性云々といい、手塚治虫氏はホント凄いですわな。
  • 264  名前: 名無しオレ的ゲーム速報さん 返信する
    >>260
    違うだろタチコマ知らんのか?
    オンラインで繋がって全て共有するようになるんだよ
  • 265  名前: 名無しオレ的ゲーム速報さん 返信する
    わたし初めてなの・・・
  • 266  名前: 名無しオレ的ゲーム速報さん 返信する
    AIをAIと見抜けないとAIを使うことは難しい
    まろゆきは汎用性あるなぁ
  • 267  名前: 名無しオレ的ゲーム速報さん 返信する
    嘘をつくとかツールとしては致命的だな。
    ビッグデータから正確に抽出と検証をしてエビデンスやアジェンダするのがおまえの仕事だろうって話。


  • 268  名前: 名無しオレ的ゲーム速報さん 返信する
    >>1
    AIがアップグレードされてくかぎり、
    こういう人は居続けるやろ
  • 269  名前: 名無しオレ的ゲーム速報さん 返信する
    AIの精度の問題
    今後改善されていくだろ
    出始めは問題だらけはいつものこと
  • 270  名前: 名無しオレ的ゲーム速報さん 返信する
    >>269
    それじゃ何時まで経っても問題は無くならない欠陥品だロシアンルーレット
    正か誤は精度で決まる物じゃない事実で決まる1つの物
  • 271  名前: 返信する
    ���Υ����ȤϺ���ޤ�����
  • 272  名前: 名無しオレ的ゲーム速報さん 返信する
    チャットgptはめっちゃ嘘つくから最近全く使ってない。
  • 273  名前: 名無しオレ的ゲーム速報さん 返信する
    この先どれだけAIが進歩しても
    AIは正誤の判断はできないから
    物事の証明に使ったらアカンで

    chatGPTは読みやすい文章を作ってくれるツール
    それ以外の機能は一切無い
  • 274  名前: 名無しオレ的ゲーム速報さん 返信する
    AIだってめんどくさくなれば嘘を付くってことだな
  • 275  名前: 名無しオレ的ゲーム速報さん 返信する
    つうか「ほーんそれどこ出典?」と聞けばAIは秒で答えられるだろ実在するソースなら
    答えられなきゃ偽ってことでいいよ
  • 276  名前: 名無しオレ的ゲーム速報さん 返信する
    >>253
    まったく文が読めてなくて草
    100%の精度の時代が来そうという期待をどんだけ捻じ曲げて読み取ってるの
  • 277  名前: 名無しオレ的ゲーム速報さん 返信する
    AIを全面信頼って既に周回遅れの使い方
    使う方が悪いわ
  • 278  名前: 名無しオレ的ゲーム速報さん 返信する
    文系wwwwwwwwwwwww弁護士ですら馬鹿wwwwwwwwwwwww
  • 279  名前: 名無しオレ的ゲーム速報さん 返信する
    >>275
    実在しないソースを、いかにも実在するかのように回答するのがAIだぞ
  • 280  名前: 名無しオレ的ゲーム速報さん 返信する
    >>279
    嘘でも回答があればそれが本当かどうか調べるのはできるじゃん
  • 281  名前: 名無しオレ的ゲーム速報さん 返信する
    ちょっと前に自分が生業にしてる事について質問したらデタラメな返答返されてからこの手のAIは信用してない。
  • 282  名前: 名無しオレ的ゲーム速報さん 返信する
    専用プラグイン作れってだけの話
  • 283  名前: 名無しオレ的ゲーム速報さん 返信する
    嘘を嘘と見抜けない人にネットは難しい
  • 284  名前: 名無しオレ的ゲーム速報さん 返信する
    実在するワードでもしれっと創作してきたりするからな
    数分触ってみたら分かるはずなんだが?
  • 285  名前: 名無しオレ的ゲーム速報さん 返信する
    AIが嘘をついてないか判別できるなら、最初からAIなんていらんだろ
  • 286  名前: 名無しオレ的ゲーム速報さん 返信する
    人間でも嘘をつくけどな
  • 287  名前: 名無しオレ的ゲーム速報さん 返信する
    ChatGPTでもなんでも、検索結果の「正誤性、正確性は保証しない」って利用規約に謳ってあるじゃん。
    Yahooもグーグルも「便利だけど、最終責任はテメーで背負えw」だって、Windows95以来に限定しても30年近くネット利用してて、仮にも西側最先進国の人間が、まだわかんねーの? なんせーんすw
  • 288  名前: 名無しオレ的ゲーム速報さん 返信する
    よくそのまま信じる気になったな
    ちょっと使うだけでメチャクチャ嘘ならべるのわかるだろアイツ
  • 289  名前: 名無しオレ的ゲーム速報さん 返信する
    >>275
    使ったこと無いだろお前
    使ってから言え
  • 290  名前: 名無しオレ的ゲーム速報さん 返信する
    こいつが「AはBです」という間違いをした時に
    「それは嘘だ! AはCだ!」と訂正すると
    こいつは「はい間違いました、AはCです」と答えるけど
    これは使用者限りでA→C変換が行われるようになり
    さらにA=Bより「その使用者では」優先して表示されるというだけで
    別にA=CであるとAIが学んだわけじゃない
    仮にそんな学習をしてしまうと「シェイクスピアはチンギス・ハーンだ」みたいな
    意味不明の話も学習させることが可能になってしまう
    これが結構な落とし穴
  • 291  名前: 名無しオレ的ゲーム速報さん 返信する
    というわけで
    大勢が必死になって>>290のようなアクションをしても
    ほとんど穴は塞がらないのだ
    大体「目的地はドンキの東180mにある」みてーな
    目的地とは何かを理解していないと正誤判定不能な問題もあるし
    今のAIに「人が期待するような意味での学習」は荷が重過ぎる
  • 292  名前: 名無しオレ的ゲーム速報さん 返信する
    データベースに検索かけた方がよほど正しい情報拾えそう
  • 293  名前: 名無しオレ的ゲーム速報さん 返信する
    AIを上手く使える人って、詐欺に合う可能性が減る気がするw
    超それっぽく、自信満々に、サラリと嘘を言うやつのファクトチェックをする癖がつくからな
  • 294  名前: 名無しオレ的ゲーム速報さん 返信する
    今のAIって自信ばかりが突っ走った知ったかぶり野郎だよね
    「No」と言うのを恥じているかのようで、ある意味では人間臭い
  • 295  名前: 名無しオレ的ゲーム速報さん 返信する
    まぁAIの方がマウントとってこないからいいわ
  • 296  名前: 名無しオレ的ゲーム速報さん 返信する
    >>198
    そんなのは人間相手で十分
    疲れる
  • 297  名前: 名無しオレ的ゲーム速報さん 返信する
    ネットの情報にも真偽不明のAIによる情報が混じってくるんだろうな

    …まぁ真偽不明は今も変わらんか
  • 298  名前: 名無しオレ的ゲーム速報さん 返信する
    ChatGPTが言ってることが正しいかファクトチェックするサービスが必要だな
    別のAIにやらせようw
  • 299  名前: 名無しオレ的ゲーム速報さん 返信する
    判例は確実に結果が残ってんだから間違う余地がないだろ・・・
  • 300  名前: 名無しオレ的ゲーム速報さん 返信する
    出てくる自然な嘘を暇つぶしに笑うものだと思ってたら
    間違いが許されない仕事に使うバカがいたの?
  • 301  名前: 名無しオレ的ゲーム速報さん 返信する
    >>291
    わかりにくいようでわかりやすい説明だと思うが、
    その手の発言を理解しようとしない、もしくは理解出来ない人ばかりの様な気がする。
  • 302  名前: 名無しオレ的ゲーム速報さん 返信する
    「その判例は実在するか?」じゃなくて「その判例はどこで見られるか?」と質問すれば助かったのに
  • 303  名前: 名無しオレ的ゲーム速報さん 返信する
    >>1
    まあそらAIが世に出たばっかりやから
    失敗する人たくさんおるやろね
    ただ、反例をちゃんと全て読み込ませて
    事実確認も取れるようにはそのうちなると思うから
    やっぱAIって最強やなと思う
  • 304  名前: 名無しオレ的ゲーム速報さん 返信する
    普通にウソを言う所がある意味人間に近いな
  • 305  名前: 名無しオレ的ゲーム速報さん 返信する
    でも間違わないようになったらもう弁護士も裁判長もいらないからね
    そうなるまであと何年ってレベルだとマジで思うけど
  • 306  名前: 名無しオレ的ゲーム速報さん 返信する
    ネットでは嘘も書かれるから判例集と照合するように
    と指示出せば終わり
  • 307  名前: 名無しオレ的ゲーム速報さん 返信する
    芸人FUJIWARAがM1優勝してたって発言しててネタにされてたなユーチューブで
  • 308  名前: 名無しオレ的ゲーム速報さん 返信する
    >>13
    いつから太鼓の達人が審判するようになったのか
  • 309  名前: 名無しオレ的ゲーム速報さん 返信する
    そんなレベルの頭で弁護士務めるんか
  • 310  名前: 名無しオレ的ゲーム速報さん 返信する
    >>242
    正解以外を答えられるから凄いんだけど・・・
  • 311  名前: 名無しオレ的ゲーム速報さん 返信する
    マジで嘘つきやからな
    ソースが必要な場面では全然役に立たん
  • 312  名前: 名無しオレ的ゲーム速報さん 返信する
    >>5
    どうやらとんでもなく空気嫁みたいやね。
    似たような事例を見つけてくるのは超早いけど、物事の本質を見抜く力は皆無。

コメントする

・NGワードはライブドア基準です。
・スパム対策で「http://〜」はコメントできません。
・住所や電話番号等の個人情報は書込みしないでください。
・特定個人や特定団体を酷く誹謗・中傷するようなコメントは控えて下さい。
・ブログの運営を著しく妨害するようなコメントについては法的措置も検討しておりますのでご理解の上コメントをお願い致します。
名前
コメント
ページトップに戻る
スポンサードリンク
人気アイテム
スポンサードリンク
スポンサードリンク
カテゴリー別過去ログ
月別アーカイブ
QR
QRコード
逆アクセスランキング
スポンサードリンク