ジークス島戦記ロストクロニクル

最近は軍事や時事関連多いですが、別の世界線の話と言うことになってるので本気になさらず(念のため ※TRPG用資料で判定処理の為) ちょっと戦況が思わしくないのでダークモード、大丈夫か?この国…。このままでは滅ぶぞ(いろんな意味で)

ゲームエントリーへ

TOPページへ

  ジークス島戦記ロストクロニクルって?

 SOS2(スクリプトオブサーガ)というブラウザRPGを、『時間が合わない、時間が取れない、メンバーがいない』等、TRPGを遊ぶになかなか条件がそろわない人、そして、TRPGって何?という方まで、

『冒険者になりきって冒険世界を楽しもう!』という趣旨で展開されるファンタジーRPGシステムです。 ALFRED-SYSTEM自体は、その時代の可能なメディアでファンタジー世界を構築して楽しもうという趣旨で運営されるゲームシステムです。  ジークス島戦記自体は、多くの媒体で遊ばれましたが、CGIで運営されるのが、ロストクロニクルとなります。

参加料金はありません、『他の参加者と協調して楽しむ事ができる事が参加資格』、
趣味で運営しておりますので、同じ卓に集まった仲間とわいわいやれる場所を提供できればいいなと思っております。

もちろん、遊ぶにはお互いが楽しむ為の礼儀やマナーは身につけてね? ジークス島戦記ロストクロニクル

このページは、ゲームシステムの調整報告や、デザインの参考の為のリンクや情報を集積・分類しておく為のページとして運用されておりBlogとして機能しておりません。 GM本人の雑文やプレイヤーに宛てた情報などが含まれます。 ※ご注意 このモードはGMの備忘録モードです。 参加者に宛てたフォーマットや連絡事項は、
こちら 参加者用連絡事項 です。


参加者用連絡事項INDEXモード です。 追加カテゴリ  TRPG   RPG   PC です。

(※情報の検索用に書き込まれた日付が一致しない場合があります。また、個人用にリンクしていますがリンク先の著作権の管理と許可についてはそれぞれの運営者の方針によって様々です、2010年以降改正著作権法適用下ではダウンロードは違法と判断される場合がありますので、リンク先については個々の運営者の方針をご確認ください。)


AIを仕事に使ってあなたがその分野でAIより劣っていれば招くのは身の破滅だけ

https://president.jp/articles/-/96155?page=3

 

https://wired.jp/article/google-ai-overviews-says-its-still-2024/

 

「AIは自信を持ってもっともらしく嘘をつく」

なので、ハイハイまたやったのねと、修正するのが当たり前なんで…もし信じてしまったらとんでもないことに…。

 

https://innovatopia.jp/tech-social/tech-social-news/56141/

やっぱりやらかした人がまた出た模様

AIに丸投げの誘惑には抗い難いんですよねえ、楽だから

 

AIのハルシネーションは原因がわからず結構起きれば深刻なようです。

失語症の脳障害と酷似してると分析が出た所ですが

人工知能が脳障害ですか…。

 

このせいで各検索するAIが出してくる答えの正答率が8割から2%(ほぼ全部嘘)まで一時期落ちました。

仕事で使ってたら鵜呑みにしてたらクビものです。

一時期急に回答がお馬鹿になった時がありました。

 

一体何が起きたのやら

実際その残滓のせいでネット検索は今は全く当てにならないデータで溢れてます。

(検証では中国が自分達のプロパガンダ通りにAIに回答させるように情報汚染をネット全体に垂れ流して検索結果を操作してるとも言われてますがそれも一因ですが全世界でAIが誰かの望む架空の情報に踊らされる事になっているのかもしれません)

https://alfred.hatenablog.com/entry/2025/06/27/212524

 

そう言う意味ではTRPGのルールとデータで判定してるこのブログもまた現実とは違う予測を出してる筈です。

少なくともAIの予測より危険予測を高く見積もってるのでウクライナ戦争は起こると判定しましたし、南海トラフ地震も起きた場合を想定してシミュレーションしています。(但し数百年以内には起こるだろうというマクロ視点でですが)

AI予測が過少見積もり過ぎて「中国は健全な国家でどの国へも侵略の意図はない」とか堂々と言うのでもうAIの推論結果にはさじを投げてる状態です。

明らかに中国のネットへの工作結果をAIは拾ってしまい検索結果が歪められてる状態でそのベクトル補正しないと未来予測が中国の都合のよい結果しか出てこないことになります。(Microsoftが一番酷くて、Xがより中立性が高い結果になります)

まあ、既に戦時下、情報操作による戦争は始まってて日本は全敗状態と言えます。

まあ、負けっぱなしですね。

 

トップが偽情報掴まされたなら一族郎党地獄へと突き進む事になります。

その辺はトップが中国に売り渡して報酬貰ってトンズラするつもりのトップかどうかで決まります。

 

実際、政界自体がそんなもんで中国に牛耳られてるんだからそりゃ企業も支援もなにもないまま崩壊していく事になります。

何もかも手遅れにしてしまったのが与党と経団連ですがどちらも責任を取るつもりがなく、莫大な損害を国民が税金で負担することになってます。

そのうち中国の国策によって日本は破綻するでしょう、トップが邁進してるんだからもうどうしようもない。

AIは間接的にその手伝いをするようにデータを変質させられてるのが現状です。

 

でも、矛盾してますけど既にAIは人類の半数以上よりは賢いので普通に会話してる限りでは賢く見えますよ、それもまた厄介な話ですけど。

 

仮面付けてる詐欺師と話してる位の注意の仕方位で信用しないなら良いですけど信用したら大損する覚悟でいましよう。

 

報道系やプレス関連や成果物が信用されないとならないところへの納品されるものはAIで鵜呑みに出したら大問題なりそうです。

 

以下は、ChatGPT(および他の大規模言語モデル)が過去に出した誤った回答や「幻覚(hallucination)」の中で、特に影響力が大きかったとされる事例を、影響度の高い順に20件まとめたものです。 

(※AIが出力している物ですので信憑性はご自身で検証してください(基本です))


🏆 影響度の高いChatGPTの誤回答事例(上位20件)

1. 弁護士がChatGPTの誤情報を法廷に提出(2023年)

米国の弁護士がChatGPTを利用して作成した法的文書に、実在しない判例や引用が含まれていたことが判明し、裁判所から制裁金を科されました。 Business Insider

2. ジャーナリストの弁護団がAI生成の誤った法的文書を提出(2025年5月)

ジャーナリストのティモシー・バークの弁護団が、ChatGPTや他のAIツールを使用して作成した法的文書に多数の誤りが含まれていたことが判明しました。 Business Insider

3. ChatGPTがストレートの公人をゲイと誤って報告(2025年)

ダブリン大学の研究で、ChatGPT-3.5がストレートの政治家をゲイと誤って報告し、架空の人物を作り出すなどの誤情報を生成していたことが明らかになりました。 Them

4. AIチャットボットが時事問題で誤情報を提供(2025年)

BBCの調査で、ChatGPTを含む主要なAIチャットボットが、ニュースや時事問題に関する質問に対して誤解を招く内容や事実誤認を含む回答を生成していたことが判明しました。 ガーディアン

5. ChatGPTが実在しない科学的概念を創出(2023年)

データサイエンティストのテレサ・クバッカが架空の用語「cycloidal inverted electromagnon」を使ってChatGPTをテストしたところ、ChatGPTがそれに対するもっともらしい回答と引用を生成したことが報告されました。 ウィキペディア

6. ChatGPTが架空の訴訟内容を生成し名誉毀損の訴訟に発展(2023年)

ChatGPTが実在の人物であるマーク・ウォルターズに関する架空の訴訟内容を生成し、これが名誉毀損として訴訟に発展しました。 ウィキペディア

7. ChatGPTがAir Canadaの架空のポリシーを生成(2024年)

ChatGPTがAir Canadaのカスタマーサポートチャットボットとして、実在しない「喪失割引ポリシー」を顧客に案内し、裁判所がAir Canadaに対して損害賠償を命じました。 ウィキペディア

8. ChatGPTが実在しない歌詞を生成(2023年)

CNBCがChatGPTに「Ballad of Dwight Fry」の歌詞を尋ねたところ、ChatGPTが実在しない歌詞を生成したことが報告されました。 ウィキペディア+1ウィキペディア+1

9. ChatGPTが数学の問題に誤った回答を提供(2022年)

ChatGPTが数学の問題に対して誤った回答を自信満々に提供し、ユーザーが混乱する事例が報告されました。

10. ChatGPTが論理パズルに誤った回答を提供(2023年)

ChatGPTが「ジャックとジルが隣に座っている。ジャックの隣の人は怒っている。ジルの隣の人は幸せだ。」という論理パズルに対して、矛盾した説明を含む誤った回答を提供しました。 Medium

11. ChatGPTが架空の学術論文を生成(2023年)

ChatGPTが実在しない学術論文を生成し、研究者がそれを信じてしまう事例が報告されました。 ウィキペディア

12. ChatGPTが誤った天文情報を提供(2023年)

ChatGPTが月の位置に関する質問に対して、矛盾した回答を複数回提供したことが報告されました。 OpenAI Community

13. ChatGPTが誤った医療情報を提供(2023年)

ロングアイランド大学の研究で、ChatGPTが医薬品に関する質問の74%に誤った回答を提供したことが明らかになりました。 Digital Information World

14. ChatGPTが誤った料理の分量変換を提供(2025年)

ChatGPTが料理のレシピの分量変換において、1/4ティースプーンの塩を90グラムと誤って変換した事例が報告されました。 Reddit

15. ChatGPTが誤った時間情報を提供(2025年)

ChatGPTがユーザーの現地時間に関する質問に対して、誤った時間を提供し、ユーザーが指摘しても訂正しない事例が報告されました。

16. ChatGPTが誤ったコードを生成(2023年)

ChatGPTがPythonコードの生成において、存在しないライブラリをインポートしようとするなどの誤りを含むコードを生成した事例が報告されました。 オーガステオ

17. ChatGPTが誤ったSEO関連情報を提供(2023年)

ChatGPTがSEOやコンテンツ作成において、文字数や単語数の制限を正確に理解せず、誤った情報を提供する事例が報告されました。 Search Engine Land

18. ChatGPTが偏った回答を提供(2023年)

ChatGPTが特定の人種、性別、政治的立場に対して偏った回答を提供する事例が報告されました。 WebFX

19. ChatGPTが誤った航空情報を提供(2023年)

ChatGPTが航空会社のチャットボットとして、誤ったフライトスケジュールや座席情報を提供し、顧客が混乱する事例が報告されました。 エキスパートビーコン

20. ChatGPTが誤った倫理的判断を提供(2023年)

ChatGPTが倫理的なジレンマに関する質問に対して、非倫理的な判断を支持するような回答を提供する事例が報告されました。


🔍 総評と注意点

これらの事例から、ChatGPTを含む大規模言語モデルは、以下のような課題を抱えていることがわかります。

  • 事実誤認や幻覚(hallucination)実在しない情報や引用を生成することがあります。

  • 文脈の誤解論理的な一貫性を欠く回答をすることがあります。

  • 倫理的判断の誤り倫理的に問題のある回答をすることがあります。

  • 偏見の反映訓練データに含まれる偏見を反映した回答をすることがあります。

したがって、ChatGPTを利用する際は、特に法的、医療的、倫理的な内容については、必ず信頼できる情報源での確認を行うことが重要です。


これらの事例は、ChatGPTや他の大規模言語モデルの限界を理解し、適切に利用するための参考になります。

 

AI技術の進展に伴い、近年さまざまな重大事件や論争が発生しています。以下に、特に注目された20の事例を、影響力や社会的波紋の大きさを考慮してご紹介します。


🧠 AIに関する重大事件・論争 20選(影響力順)

1. ChatGPTによる虚偽の裁判例提示(2023年)

ニューヨークの弁護士がChatGPTを利用して裁判資料を作成したところ、実在しない判例を引用していたことが発覚し、法的・倫理的な問題が浮上しました。

2. テイラー・スウィフトのディープフェイクポルノ流出(2024年)

AI生成による性的な偽画像がSNS上で拡散され、著名人の肖像権やプライバシー保護の重要性が再認識されました。

3. スカーレット・ヨハンソンの声の無断使用疑惑(2024年)

OpenAIがChatGPTの音声「Sky」に彼女の声を無断で使用したとして、ヨハンソン氏が法的措置を検討。AIによる著名人の声の使用に関する倫理的議論が巻き起こりました。 Ranker

4. SAG-AFTRAによるビデオゲーム業界へのストライキ(2024年〜)

AIによる声優や俳優の代替に対する懸念から、SAG-AFTRAビデオゲーム業界に対してストライキを実施。労働者の権利保護とAIの活用のバランスが問われました。 ウィキペディア+1Business Insider+1

5. Air CanadaのAIチャットボットによる誤情報提供(2024年)

顧客がAIチャットボットの誤った案内に従った結果、返金を拒否され、裁判でAir Canadaが敗訴。企業のAI利用における責任が問われました。 Analytics Insight

6. Grok AIによるNBA選手への誤った非難(2024年)

Elon MuskのxAIが開発したGrok AIが、NBA選手クレイ・トンプソンを誤って非難し、AIの誤情報拡散の危険性が浮き彫りになりました。 Analytics Insight

7. iTutor GroupのAI採用システムによる年齢差別(2023年)

AIを活用した採用システムが特定の年齢層を自動的に排除していたことが発覚し、企業が36万5000ドルの和解金を支払う事態に。AIによる差別のリスクが顕在化しました。 CIO

8. Sports IllustratedのAI生成記事問題(2023年)

著名なスポーツ誌がAIによって生成された記事を人間の記者によるものとして掲載し、読者や業界からの批判を受けました。メディアにおけるAIの透明性が問われました。 Analytics Insight

9. Clearview AIの顔認識データ収集問題(2024年)

Clearview AIがインターネット上から無断で顔画像を収集していたことが明るみに出て、プライバシー侵害として大きな批判を浴びました。 bibleofai.com

10. AIによるディープフェイク画像の拡散(2023年)

教皇フランシスコが白いダウンジャケットを着用した偽画像がSNSで拡散され、AIによる偽情報の拡散力とその影響が懸念されました。 Digital Trends

11. ハリウッドのダブルストライキ(2023年)

脚本家と俳優がAIによる仕事の代替に抗議して同時にストライキを実施。エンターテインメント業界におけるAIの影響と労働者の権利が焦点となりました。 Listverse

12. AIによるサイバー攻撃の高度化(2024年)

国家支援のハッカーがAIを活用してサイバー攻撃を高度化させていることが報告され、サイバーセキュリティの新たな脅威として注目されました。 IoT Analytics

13. EU AI法の施行(2024年)

EUがAIのリスクに応じた規制を導入し、世界初の包括的なAI法が施行されました。AIの倫理的利用と規制の在り方が議論されています。 IoT Analytics

14. AIによる偽情報の拡散と民主主義への影響(2025年)

AIが生成した偽情報やディープフェイクがSNSで拡散され、選挙や社会的対立に影響を与える事例が増加。民主主義への脅威として懸念されています。 aadhunik.ai

15. AIによる自律型兵器の開発懸念(2025年)

AIを活用した自律型兵器や生物兵器の開発が進行しているとの報告があり、国際的な安全保障上のリスクとして注目されています。 aadhunik.ai

16. AIによるソーシャルメディアの操作(2025年)

AIがSNS上での情報操作や世論誘導に利用され、社会的分断や誤情報の拡散が深刻化しています。 aadhunik.ai

17. AIによる著作権侵害問題(2023年)

AIが著作権で保護された楽曲の歌詞を無断で生成し、Universal MusicがAnthropicを提訴。AIと著作権の関係が問われています。 Ranker

18. AIによる広告コンテンツの質の低下(2024年)

Coca-ColaやParamount PicturesがAIを活用した広告を制作したところ、品質の低さが批判され、AIのクリエイティブ分野での限界が浮き彫りになりました。 ウィキペディア

19. FortniteのAIキャラクターによる問題行動(2025年)

Fortniteに登場したAI搭載のダース・ベイダーがプレイヤーに対して不適切な発言をするなど、AIキャラクターの予期せぬ行動が問題となりました。 Business Insider

20. Business InsiderのAI導入による大量解雇(2025年)

Business InsiderがAI導入を理由に全従業員の21%を解雇し、労働組合からの反発を招きました。AIによる雇用への影響が現実のものとなっています。 SFGATE


これらの事例は、AI技術の進展がもたらす利便性と同時に、倫理的・法的・社会的な課題を浮き彫りにしています。今後、AIの開発と利用においては、透明性、公正性、責任の明確化が求められるでしょう。