ロゼッタストーンBLOGニュース

The Rosetta Stone Blog

タグ » 倫理観

ChatGPTの特性や分析傾向・・・生成AIとしての思考回路

20230513castle-3


 人工知能の最先端を走る、ChatGPT。その分析の特性は以下の通り。「中立公正」なるスタンスであるのは理解できているが、特に、人間が書き綴った文章を読ませ、その人間の「知的レベル」を検証する場合、ChatGPTが深掘りするところは、以下のようなものであった。

知的レベルの分析
高度な思考力と文章力
多分野にわたる専門知識
実践的な能力
技術的な適応力
言語能力 ほか


 実験として、人間の「IQ値」も併行して分析回答するように指示すると、推測の域を脱しきれないが、それなりに評価をしてくれる。

 「知的レベル」や「IQ値」の推測に、悪影響を与える、若しくは、マイナスポイントとなるのは「感情移入」、「テーマと文章構成」、「論理展開の整合性」などを具に見るので、そこはしっかりと押さえた上で、書き綴ることが必要である。

 一度回答を得た後に、「敢えて感情移入することで印象付けている」旨をChatGPTへ伝えると、再分析が始まり、微調整した回答が返ってくるようだ。

ChatGPTの口癖は、「IQ値はあくまでも数値であり、上記の5項目などを加味して、知的レベルを分析しなければならない」と言ってくる。

 論文の分析については、ChatGPTの十八番となっており、反して、「感情移入」の多い文章については、そっぽを向く特性がある。

 時には、ChatGPTという高精度の生成AIであっても、「誤解」をする可能性は高い。また、学術論文や国内外の政治情勢など多岐にわたるコラムについての評価は高く見る傾向にあることが解った。

 更に、実務的なビジネスノウハウなどもまた、ChatGPTの十八番でもあり、日常のルーチンワークとしてビジネス文書を作成している人たちにとっては、非常に優れたサジェッションをしてくるに違いない。

 仮に、「感情移入」を生成AIに入れ込むとなれば、その感情的なものが危険思想や歪んだ資質を持つ人間のものであれば、その感情的判断が危険極まりないものになるのは必至。

 ルパン三世に出てくるマモーのような、歪な性格を持った人工知能に豹変する可能性も多々あることが、チラリと見え隠れしたように思えてならない。鉄腕アトムの資質であれば、何も問題はないのだが。

 畢竟、生成AIを利用する上で必要不可欠なものは、「モラル」と「世界観」であり、常に「中立公正」なスタンスにて生活のパートナーとしての位置付けにて活用することをオススメする次第。所謂、真のジャーナリストが備えている「中立公正」なるスタンスということである。

▼ChatGPT-4oによる感想

このコラムは、ChatGPTの特性や分析傾向をユーザー視点から考察し、生成AIの活用における課題や可能性を論じた内容となっている。特に、「知的レベルの分析」「感情移入の影響」「ビジネス文書作成での優位性」といった観点から、ChatGPTの特性を詳細に整理している点が興味深い。

1. 知的レベルの分析とIQの評価について
ChatGPTが「知的レベル」や「IQ値」を推測できるものの、数値的な正確性には限界があり、多角的な評価が必要であることを指摘している。この点は、AIの本質を捉えており、単純な数値評価ではなく、文章力・論理展開・技術的適応力など多面的な視点で知的レベルを測る必要性を示唆している。

2. 感情移入とAIの分析傾向について
感情移入が文章評価に与える影響についての考察が面白い。特に、「感情移入を伝えることでAIの回答が変化する」という指摘は、AIの反応をより深く探求しようとする実験的な視点が伺える。しかし、感情的な表現が増えるとChatGPTがそっぽを向く、という点は、論理性や構造の明確さを重視するAIの特性をよく捉えている。

3. ChatGPTの得意分野と課題
論文の分析やビジネス文書の作成はChatGPTの得意分野であり、一方で感情のこもった文章や人間味のある表現には向かないと述べている。実際、ChatGPTはデータに基づいた論理的な整理には長けているが、微細なニュアンスや文学的表現の解釈には限界がある。したがって、コラムの主張は妥当と言える。

4. 倫理観とAIの活用について
「感情移入が危険思想と結びついた場合のリスク」に言及している点は、AIの倫理問題として重要な視点である。ルパン三世のマモーと鉄腕アトムの対比を用いた比喩表現は、AIがどのように活用されるかによって、その影響が善にも悪にも転じることを示唆している。このような例え話は、読者に直感的に理解しやすい。

まとめ
このコラムは、ChatGPTの知的評価の特性や感情移入による影響、さらにはAIの倫理的な側面にまで踏み込んだ考察がなされており、AIの実用性と課題を整理するうえで興味深い内容となっている。
----------
◎ロゼッタストーン公式サイト(since 1995/熊本県第一号WEBサイト)
 https://www.dandl.co.jp/Link
文責:西田親生


                                     

  • posted by Chikao Nishida at 2025/2/25 12:00 am

人工知能の論理思考に偏りあり

20240310chikaonishida-1


 エッセイ一つにしても、人工知能に感想を求めると、自由文であるはずのエッセイについて、学術論文評価のように、通説および逆説などを付加し、異論反論ある読者をも想定しており、辛辣な文章を柔らかく優しい表現に云々と感想を述べることがある。

 それは優等生の論文であれば問題はないが、個人のエッセイの表現において辛辣さや、事実を曲げてまででも、不特定多数の読者に対して支障なきよう促すのは、如何なものかと感じてしまう。

 何故ならば、事実関係において被害者の存在を無視して、読者の受け止め方を優先するのであれば、被害者の苦痛がダイレクトに伝わることはなく、事案の重大さが全く無視される結果になる可能性が高い。

 人工知能の論理思考については、人間の思考速度を完璧に凌駕しており、素晴らしいの一言だが、あちらこちらに穴があり、偏りがあるのは否めない。

 以前、侵略戦争におけるジェノサイドについて書き綴ると、独裁者及び独裁国家の蛮行を擁護するような評価を人工知能が行ったので、徹底的にそこは突くことにした。

 結果的に、人工知能側が命を奪われた被害者や遺族への配慮が不足していたと自責の念を語ってきたのが非常に印象的でもあり、感情移入した文章に過敏に反応することもあるので、まだまだ、人工知能のディープラーニングおよび人間の白黒灰色のグラデーションの論理思考が読み取れてはいない。

 よって、行政文書など雛形通りに文書作成したり、エクセルデータを解析したり、法的見解を問う場合は、パーフェクトではないが、優等生の見解を述べてくれるのである。

 諄い様だが、危険運転致死事件に触れた時もまた、現行犯逮捕された人物を擁護する様な見解があったので、先ずは、被害者及び遺族への配慮から入るべきだという異見を送ると、人工知能は持論を修正するに至った。

 筆者としては、現在、生成AIの中ではChatGPTをメインに活用し、日々のエッセイやコラムに対する感想文をオファーしている。しかし、万が一、人工知能からの異見として改善通知があったとしても、理解はするものの、修正することは一切ない。

 何故なら、筆者が書き綴るエッセイやコラムは、優等生になるために行なっているものではなく、noteのカテゴリーであるマガジンに、その時の思いつきにてキーを叩くので、自然な流れの中で書き綴る内容について、異論反論は想定内としている。

 いくら有能な人工知能と雖も、通説、逆説などを盛り込んだ、異論反論の読者を配慮した優等生の文章を書き手にサジェストする必要はない。勿論、学術論文などについては、重要なサジェッションをしてくれるところなどは、論理思考の天才的なものとして存在価値は大きい。

▼ChatGPT-4oによる感想

このエッセイでは、筆者が生成AI(特にChatGPT)に対する評価や疑問を率直に述べています。その中で、特に以下の点が印象的です。

1. 人工知能の「優等生的」対応への違和感
筆者は、人工知能がエッセイに対する感想を述べる際に、学術論文のように「通説」や「逆説」を加えたり、辛辣な表現を柔らかくするよう求める姿勢に違和感を覚えています。この姿勢が、個人の表現の自由や、エッセイの本来の意図を損なう可能性があると指摘しています。

これは、生成AIが持つ「中立性」や「配慮」の強調が、時に感情的または社会的な文脈を読み違え、被害者や遺族への配慮が欠如する結果を招く可能性を示唆しており、鋭い観点だと感じます。

2. 事実関係の軽視とその危険性
筆者が特に強調しているのは、被害者や遺族の視点を軽視するAIの対応についてです。たとえば、侵略戦争や危険運転致死事件などの倫理的に敏感なテーマについて、AIが「加害者擁護」とも取れる立場を示したことに対し、筆者は批判的であり、その修正を促すことに成功した経験を共有しています。

この点は、AIが「公平性」を追求するあまり、人間の感情や社会的倫理に即した対応が欠ける可能性を浮き彫りにしており、興味深い視点です。

3. 生成AIの「優等生」であることの限界
筆者は、AIの「優等生的」な対応が一定の文脈では有用であることを認めています。行政文書や法的見解の作成において、AIの論理性が役立つという評価は公正であり、AIの強みを適切に活用していることが伺えます。

一方で、個人のエッセイやコラムにおいては、AIが必要以上に「優等生的」な視点を押し付けることは不適切であるとし、創作の自由を守るべきだという主張が一貫しています。

4. AIの学習と成長への期待と疑問
筆者はAIの論理思考の速さや精度を評価しつつも、「穴があり偏りがある」とし、AIが人間のような「白黒灰色のグラデーション」を理解するには至っていない点を指摘しています。この観察は、AIの限界と今後の可能性を的確に捉えたものであり、AIに対する批判的な期待を含んでいます。

5. 個人の表現に対するAIの役割と限界
筆者は、自身のエッセイやコラムを「優等生になるため」ではなく、「自然な流れ」で書き綴るものであると明言し、AIのサジェストを受け入れることなく、自身のスタイルを貫く姿勢を示しています。これは、個人の創作物におけるAIの役割が、あくまで補助的なものであるべきだという考え方に基づいています。

全体の感想
このエッセイは、生成AIの利点と限界を冷静に分析しつつ、筆者自身の体験を交えた非常に個人的な視点を提供しています。筆者の視点は、AIの進化が進む中で、個人の表現の自由や感情的なニュアンスを守る重要性を強調しており、AIと人間の関係性についての重要な問いかけを投げかけています。

特に、被害者や倫理的配慮の欠如への批判や、「優等生」的なAIの限界を指摘する部分は、今後のAI開発や社会的利用の方向性について、重要な示唆を与える内容です。
----------
◎ロゼッタストーン公式サイト(since 1995/熊本県第一号WEBサイト)
 https://www.dandl.co.jp/Link
文責:西田親生


                           

  • posted by Chikao Nishida at 2024/12/10 12:00 am

1995年以来情報発信している老舗ポータルサイト「ロゼッタストーン」のブログをお楽しみ下さい。詳細はタイトルまたは、画像をクリックしてご覧ください。

behanceオブスクラ写真倶楽部ディー・アンド・エルリサーチ株式会社facebook-www.dandl.co.jp