GAS-Standard模擬試験 公式問題集

問題一覧

問題番号
問題文 正解
1
プロンプトの表現を細かく工夫するよりも、適切なコンテキストを事前に与えるほうが、AIの回答品質は安定しやすい。
解説:
十分な背景情報や目的を与えることで、表現の細かな差に左右されにくい安定した出力が得られます。
2
AI活用において、プロンプト設計だけを学べば業務で十分に成果を出せる。 ×
解説:
プロンプト設計だけでなく、目的整理や情報の与え方なども重要です。設計だけでは十分な成果につながらないことがあります。
3
コンテキスト設計は、AIを業務で活用するうえで重要なスキルの一つである。
解説:
適切なコンテキスト設計は、業務で安定した成果を得るために重要な要素です。
4
GPT-4.1は主にデザイン作成に特化したモデルである。 ×
解説:
GPT-4.1は主にコーディングに特化したモデルで、特にフロントエンドコーディングやバグ修正、指示への正確な追従などの能力が強化されています。デザイン作成ではなくソフトウェア開発支援が主な用途です。
5
最新の生成AIには、ユーザーの代わりにオンライン予約などのタスクを自律的に実行する『AIエージェント』機能を持つものがある。
解説:
最新のAIモデルでは「Action」や「Agent」と呼ばれる機能により、ユーザーの代わりにアプリの操作、予約、情報検索などの実用的なタスクを自律的に実行できるようになっています。これはAIの活用範囲を大きく広げる新しいトレンドです。
6
ChatGPT Plusでは、最新モデルを含む複数のモデルを用途に応じて切り替えて使用できます。
解説:
ChatGPT Plusの有料サブスクリプションでは、GPT-4やGPT-3.5など複数のモデルを用途に応じて切り替えて使用できます。
7
Anthropicが開発している生成AIアシスタント「Claude」は、日本語に対応していない。 ×
解説:
Claudeは日本語に対応しており、英語だけでなく日本語での対話や文書作成も可能です。2023年以降、日本語を含む多言語対応が強化されています。
8
OpenAIの「DALL-E 3」は現在「Image Generation」という名称で提供されている。 ×
解説:
DALL-E 3は名称変更されておらず、引き続きDALL-E 3として存在しています。2025年3月にChatGPTのデフォルト画像生成は「4o Image Generation」という新しいモデルに変更されましたが、これはDALL-E 3とは技術的に異なる別のモデルです。
9
デザインツールCanvaでは、AIを活用した画像生成や背景削除などの機能が利用できる。
解説:
Canvaでは『Magic Studio』として、テキストからの画像生成(マジックメディア)、背景削除(背景リムーバー)など、複数のAI機能が提供されています。
10
Stable Diffusionは、オープンソースの画像生成AIモデルである。
解説:
Stable Diffusionは無料で利用できるオープンソースの画像生成AIモデルで、商用利用も可能です。個人のコンピュータにインストールして使用することもできます。
11
Jasperは、ブログ記事やSNS投稿など、マーケティング向けの文章作成に特化したAIツールである。
解説:
Jasper(旧Jarvis)は、マーケティングコンテンツの作成に特化したAIライティングツールで、ブログ記事、SNS投稿、広告コピーなどを効率的に作成できます。
12
Google Docsの「Help me write」機能は、文章の校正のみを行うAI機能である。 ×
解説:
Google Docsの「Help me write」機能は単なる校正だけでなく、文章の下書き作成、書き直し、要約、拡張など幅広い文章作成支援を行います。
13
ELEVENLABSは、テキストから自然な音声を生成するAIツールである。
解説:
ELEVENLABSは高品質な音声合成AIで、テキストから自然な音声を生成できます。複数の言語や声色に対応し、ナレーションやポッドキャスト制作などに利用されています。
14
Runway MLの動画生成モデルは、世代が進むほど映像品質や制御性が向上している。
解説:
Runway MLはGen-2からGen-3へと進化し、動画の一貫性や動きの自然さ、指示への追従性が向上してきました。最新のGen-4.5では、物理的な動きや映像の精細さがさらに改善され、用途に応じたモデル選択が重要になります。
15
ChatGPTのVoice Modeは、音声による会話が可能だが日本語には対応していない。 ×
解説:
ChatGPTのVoice Mode(音声モード)は日本語にも対応しており、日本語での音声会話が可能です。スマートフォンアプリなどで利用できます。
16
自律的にタスクを実行する仕組みはAIエージェントと呼ばれる。
解説:
AIエージェントとは、指示に基づき複数のタスクを自律的に実行する仕組みを指します。
17
AIエージェントは外部ツールやAPIと連携することがある。
解説:
AIエージェントは外部ツールやAPIと連携し、情報取得や処理を行うことがあります。これにより、単独ではできないタスクも実行できるようになります。
18
RAG(検索拡張生成)は外部情報を参照し精度を高める仕組みである。
解説:
RAGは外部情報を参照しながら生成を行うことで、回答精度を高める仕組みです。
19
RAGを利用すれば、ハルシネーションは完全に防げる。 ×
解説:
RAGを利用しても、参照データや設計次第ではハルシネーションが発生する可能性があります。
20
AIコード生成を使っても人によるレビューや検証は重要である。
解説:
AIが生成したコードであっても、品質や安全性を担保するためには人による確認が重要です。
21
抽象的な指示からコードを生成する手法は近年注目されている。
解説:
近年は、処理内容や目的といった高レベルな要件からコードを生成する技術が発展しています。コードの細かい書き方を指定しなくても、実装のたたき台を得られる点が注目されています。
22
AIエージェントは監督なしでも常に安全に動作する。 ×
解説:
AIエージェントは自律的に動作しますが、常に安全に振る舞うとは限りません。誤作動や想定外の挙動が起こる可能性があるため、監督や制御が必要です。
23
RAGでは参照データの品質や更新状態が結果に影響する。
解説:
RAGは外部データを参照して回答を生成するため、誤りや古い情報が含まれると出力にも影響します。参照データの品質や更新状況を保つことが、安定した結果につながります。
24
MCPを使えばAIがどの情報にアクセスしているか整理しやすい。
解説:
MCPを用いることで、AIが参照する外部情報や利用するツールの範囲を明確に整理できます。これにより、情報の出どころを把握しやすくなり、想定外の参照や動作に気づきやすくなります。
25
生成AIが作成した文章や画像は、著作権表示なしで自由に商用利用できる。 ×
解説:
生成AIが作成したコンテンツの利用には、各AIサービスの利用規約に従う必要があります。多くの場合、商用利用には制限があり、著作権や権利関係の明示が求められます。
26
著作物をAIに学習させることは、常に著作権侵害になる。 ×
解説:
著作物のAI学習利用については、各国の法律や学習目的によって扱いが異なります。日本では2018年の著作権法改正で一定の条件下でのAI学習目的の著作物利用が認められましたが、商用利用などには制限があることに注意が必要です。
27
AIが生成した画像の中に表示されているロゴや商標は、法的に問題なく使用できる。 ×
解説:
AIが生成した画像に実在の企業ロゴや商標が含まれている場合、それらの使用権は得られていません。商標権や知的財産権の侵害になる可能性があるため、商用利用やパブリックな場での使用は避けるべきです。
28
最新のAI技術では、「Explainable AI/XAI (エクスプレイナブルAI)」(説明可能なAI)の重要性が高まっている。
解説:
Explainable AI/XAIは、AIの意思決定プロセスを人間が理解できるようにする技術です。AIの利用が拡大するにつれ、透明性や説明責任の観点から、AIがなぜその判断をしたのかを説明できる能力の重要性が高まっています。
29
生成AIの利用時には、著作権に配慮する必要がある。
解説:
生成AIが作成した内容であっても、既存の著作物との関係には注意が必要です。著作権侵害に当たるかどうかを最終的に判断するのは人であり、利用者自身が確認する姿勢が求められます。
30
AIが作成した文章は、必ず著作権侵害にならない。 ×
解説:
AIが作成した文章であっても、著作権侵害となる可能性があるため注意が必要です。
31
著作権が不明な場合は、利用を控える判断も重要である。
解説:
著作権の有無が不明な場合には、リスクを避けるため利用を控える判断が重要です。
32
AIは法律を理解し判断しているため、法的チェックは不要である。 ×
解説:
生成AIは法律を理解して判断しているわけではないため、法的チェックは人が行う必要があります。
33
生成AIを活用する際は、なぜその結果を採用したか説明できるようにしておくことが重要である。
解説:
生成AIを利用する際には、その判断や結果について説明できる責任が求められます。
34
海外製ツールであれば、日本の法律は考慮しなくてよい。 ×
解説:
海外製ツールであっても、日本国内で利用する場合は日本の法律を考慮する必要があります。
35
透明性とは、AIの利用方法や目的が説明できる状態を指す。
解説:
透明性とは、AIの利用方法や目的について第三者に説明できる状態を指します。
36
ガバナンスはAIを適切に管理・運用するための考え方である。
解説:
ガバナンスとは、生成AIを適切に管理し、望ましい形で運用するための考え方です。企業のAI導入方針などでよく使われる言葉です。
37
プロンプトインジェクションは指示解釈を意図的に操作する手法である。
解説:
プロンプトインジェクションは、入力文に紛れ込ませた指示によってAIの挙動を操作しようとする攻撃手法です。システムの指示と外部からの入力情報を区別し、入力をそのまま指示として扱わない管理が重要です。
38
ユーザー入力をそのまま渡す設計はリスクを高める可能性がある。
解説:
ユーザー入力を無加工で扱うと、不正指示や攻撃を受けるリスクが高まる可能性があります。
39
プロンプトインジェクションはRAGやエージェントでも発生し得る。
解説:
RAG構成やAIエージェントでも、入力経路次第でプロンプトインジェクションが起こり得ます。
40
生成AIを使えば、業務の判断や責任をAIに任せることができる。 ×
解説:
業務の判断や責任は人が負う必要があり、AIに委ねることはできません。
41
生成AIの使い方を教える場面では、相手が誤った手順で操作していても、相手の自尊心を傷つけないよう誤りの指摘を控えるべきである。 ×
解説:
間違いを指摘しないことは長期的には問題を生じさせます。ただし、「別のアプローチも試してみましょう」など肯定的な言い回しで提案し、相手の自尊心に配慮しながら正しい方法を伝えることが重要です。
42
生成AIの利用中にトラブルや事故が発生した場合、速やかな報告と初期対応を行う判断は実践的である。
解説:
トラブル発生時に状況を共有し、早い段階で対応することで影響の拡大を防ぎやすくなります。初動を遅らせない判断は、現場対応として重要です。
43
生成AI利用中にトラブルが発生した場合、原因を切り分けて考えることが有効である。
解説:
原因を整理して切り分けることで、適切な対応策を見つけやすくなります。
44
生成AIのトラブル対応は、技術者だけが行えばよい。 ×
解説:
利用者やサポーターも含め、関係者が状況に応じて対応することが重要です。
45
生成AIは常に正しく動作するため、トラブル対応は不要である。 ×
解説:
生成AIは常に正しく動作するとは限らないため、トラブル対応は必要です。
46
トラブル対応では、代替手段を検討する柔軟性が求められる。
解説:
一つの手段に固執せず、代替策を検討する姿勢が重要です。
47
生成AIが使えない場合でも業務を継続できる準備が望ましい。
解説:
利用できない状況を想定し、代替手段を用意しておくことが重要です。
48
トラブル対応の経験は、次の生成AI活用改善につながる。
解説:
過去の対応経験を振り返ることで、今後の活用改善に活かすことができます。
49
生成AIの出力に誤りがあると気づいたとき、その点を指摘して修正を試みても改善にはつながらない。 ×
解説:
誤りを具体的に指摘し、条件や表現を見直すことで出力が改善する場合があります。問題点を共有しながら調整する姿勢が、生成AIを実務で活用するうえで重要です。
50
利用者同士でトラブル対応情報を共有することは、対応力向上に役立つ。
解説:
経験や対応策を共有することで、組織全体の対応力が向上します。
51
解決したトラブル対応方法を共有することは望ましい。
解説:
解決策を共有することで、同様の問題への対応が迅速になります。
52
トラブル対応では、短期的解決と長期的改善の両方を考える必要がある。
解説:
目先の解決だけでなく、再発防止を見据えた改善が重要です。
53
生成AI利用でトラブルを経験すること自体は、必ずしも悪いことではない。
解説:
トラブル経験は学習や改善の機会として活かすことができます。
54
冷静で建設的な対応力が、生成AIサポーターには求められる。
解説:
感情に流されず建設的に対応する力が、サポーターには求められます。
55
生成AIでエラーが出た場合、利用者はすぐにすべての利用を中止すべきである。 ×
解説:
一時的な不具合の場合もあるため、状況を確認しながら段階的に対応することが望ましいです。
56
生成AIでトラブルが起きた場合、原因を切り分けて考えることが重要である。
解説:
原因を整理して切り分けることで、適切な対応策を見つけやすくなります。
57
生成AIの不具合で原因が分からなくても、そのまま放置してよい。 ×
解説:
原因不明のまま放置すると、問題が拡大したり再発したりする可能性があるため、適切な確認と対応が必要です。
58
生成AIのトラブル対応では、代替手段を検討する柔軟性が求められる。
解説:
一つの手段に固執せず、代替策を考える姿勢が安定運用につながります。
59
生成AIのトラブル対応では、利用者同士で情報共有することが対応力向上に役立つ。
解説:
経験や対応策を共有することで、組織全体の対応力が高まります。
60
生成AIで想定外の結果が出た場合、その状況を簡単に記録しておく行動は適切である。
解説:
状況を記録しておくことで後から原因や経緯を振り返りやすくなり、同様のトラブルが起きた際の対応判断にも活かせます。
61
「コンテキストウィンドウ」とは、生成AIが一度に処理できる最大の情報量を指す。
解説:
コンテキストウィンドウは、モデルが一度に読み取って処理できる情報量の上限を表します。
62
コンテキストウィンドウの大きさが大きいほど、必ずAIの回答精度は高くなる。 ×
解説:
処理できる情報量が増えても、不要な情報が含まれると精度が下がる場合があります。大きさだけで精度は決まりません。
63
「コンテキスト」と「コンテキストウィンドウ」は同じ意味であり、区別する必要はない。 ×
解説:
コンテキストは内容を指します。一方、コンテキストウィンドウは処理できる量を指すため、両者は異なる概念です。
64
「マルチモーダルAI」とは、テキストだけでなく、画像、音声、動画など複数の形式の情報を一度に処理できるAIのことである。
解説:
「マルチ(Multi)」は「複数」、「モーダル(Modal)」は「形式・モード」を意味します。つまり、テキスト・画像・音声など、異なる種類のデータを一度に扱えるのが特徴です。
65
「AI Agent (AIエージェント)」とは、単に質問に回答するだけでなく、複数のタスクを自律的に実行できるAIシステムのことである。
解説:
AI Agentは、指示に基づいて複数のアプリケーションと連携したり、一連の作業を自律的に実行したりできる半自律型のAIシステムです。単なる質問応答を超えて、より複雑なタスクを実行できる点が特徴です。
66
「Context Window (コンテキストウィンドウ)」が大きいほど、AIが一度に処理できる情報量が少なくなる。 ×
解説:
Context Windowが大きいほど、AIが一度に処理できる情報量は多くなります。例えば、Gemini 2.5 Proは100万token(約100万語に相当)という大きなContext Windowを持ち、長い文書や複雑な会話を処理できます。
67
現在の生成AIでは、論理的な推論は特別なモデルを選択した場合にのみ行われる。 ×
解説:
現在の生成AIは標準の動作として推論処理を含んでおり、必要に応じて思考の深さが内部で調整されるため、推論は特定のモデルに限定された機能ではありません。
68
Frontier Modelとは、特定の用途に特化したAIではなく、推論や多様なタスクを統合的に処理できる最先端の基盤モデルを指す。
解説:
Frontier Modelは単一用途に限定されず、複数の高度な能力を統合した基盤として設計されており、幅広いタスクに対応できる点が特徴です。
69
「Multimodal AI (マルチモーダルAI)」とは、複数の言語を同時に翻訳できるAIである。 ×
解説:
Multimodal AIとは、テキスト、画像、音声、動画など複数の形式(モード)の情報を処理できるAIのことです。複数言語の翻訳に特化したものではなく、異なる種類のデータを理解・処理する能力を指します。
70
「Context Window (コンテキストウィンドウ)」が100万tokenのAIは、約1000ページの文書を一度に処理できる。
解説:
100万token(約100万語)のContext Windowを持つAIは、約1000ページ相当の文書を一度に処理できます。これにより、長い文書の全体を理解したり、複雑な会話の文脈を維持したりすることが可能です。
71
AIモデルの「Token (トークン)」とは、1単語に相当する処理単位である。 ×
解説:
Tokenは必ずしも1単語に相当するわけではありません。英語では単語に近いですが、日本語では複数のtokenで1単語を表すことが多く、また句読点や空白もtokenとして数えられます。Tokenは処理の最小単位を指します。
72
「RAG (Retrieval-Augmented Generation) (検索拡張生成)」とは、AIが自身の知識だけでなく最新の情報源を参照して回答を生成する技術である。
解説:
RAGは、AIが内部知識だけでなく、外部データベースや最新の情報源から関連情報を検索・参照して回答を生成する技術です。これによりAIの知識を最新に保ち、より正確な回答が可能になります。
73
「Zero-shot Learning (ゼロショットラーニング)」とは、少量のサンプルデータからAIが学習する技術である。 ×
解説:
Zero-shot Learningは、特定のタスクの例を一切見せずにAIがそのタスクを実行できる能力を指します。少量のサンプルから学習するのは「Few-shot Learning (フューショットラーニング)」と呼ばれる別の技術です。
74
「MMLU (Massive Multitask Language Understanding) (マッシブマルチタスク言語理解)」とは、AIの言語理解能力を測定するための標準的なベンチマークテストである。
解説:
MMLUは、法律、哲学、医学、数学など様々な分野におけるAIの言語理解能力を測定する標準的なベンチマークです。AIモデルの性能を比較する際によく使用されます。
75
推論に特化したAIモデルのほうが、一般的なAIモデルよりも処理速度が速い。 ×
解説:
推論に特化したAIモデル(例:OpenAI o1)は、複雑な推論を行うために一般的なモデルより処理時間がかかることが多いです。より詳細で論理的なアプローチを取るため、即時応答よりも正確性を重視する設計になっています。
76
「Small Language Model (小型言語モデル)」は、大型モデルより機能が限定されるが、処理速度が速く、コストが低いというメリットがある。
解説:
Small Language Model(例:GPT-4o MiniやClaude 3 Haiku)は、大型モデルよりも機能や精度がやや劣るものの、処理速度が速く、コストが低いというメリットがあります。日常的なタスクや迅速な応答が必要な場面で活用されています。
77
「Agricultural AI (アグリカルチャルAI)」とは、農業分野に特化した最新のAIモデルである。 ×
解説:
「Agricultural AI」という一般的に認知された分類や特定のAIモデルは存在しません。農業向けのAIアプリケーションは存在しますが、特定のモデル分類として確立されていません。
78
「Generative AI Reckoning (生成AIのレコニング)」とは、AIの実用性と限界についての再評価の動きを指す言葉である。
解説:
レコニング=「AIの『真価が問われる時期』や『再評価』のこと」「Generative AI Reckoning(再評価)」は、生成AIが実際に何をどこまでできるのか、何をすべきかについての産業界や研究者による批判的な再評価の動きを指します。技術的可能性と実際の価値のギャップを検証する流れを表しています。
79
生成AIの「ハルシネーション」とは、AIが実際には存在しない情報を作り出してしまう現象のことである。
解説:
ハルシネーションは生成AIが事実に基づかない情報や存在しないデータを本物のように生成してしまう現象です。特に専門的な内容や数値データで発生しやすい特性です。
80
トークンとは、生成AIが処理する最小の言語単位で、単語よりも細かい場合もある。
解説:
トークンは文章をAIが処理できる単位に分割したもので、英語では単語に近いですが、日本語では文字や文字のグループになります。例えば「こんにちは」は複数のトークンに分割されます。
81
AI初心者に説明する際は、まずプロンプトの書き方から教えるのが最も効果的である。 ×
解説:
最初に背景や前提を伝える重要性を理解してもらうほうが、全体像を把握しやすく効果的です。
82
AIを使うことに不安を示す人に対して、「AIは便利なので必ず使うべきです」と説得するのは指導者の役割である。 ×
解説:
個人の不安や懸念を尊重し、強制せずに情報提供することが大切です。AIが向いている場面と向いていない場面があることを認め、選択の自由を尊重する姿勢が信頼関係の構築につながります。
83
AIの使い方を教える際、「わからないことは何でも質問してください」と言葉で伝えるだけでなく、質問しやすい態度や環境を作ることが重要である。
解説:
言葉だけでなく、うなずきや笑顔などの非言語コミュニケーション、質問への肯定的な反応、初歩的な質問も歓迎する姿勢など、総合的に質問しやすい環境を作ることが学習効果を高めます。
84
多様な背景を持つ人々にAIを教える際、画一的な説明方法より、相手の文化や価値観に配慮したアプローチを取ることが大切である。
解説:
学習者の文化的背景、年齢、技術的経験などを考慮したコミュニケーションは、理解を深め、尊重の念を示します。例えば、例示する際に様々な文化や状況を反映させることで、より包括的な学習環境を作れます。
85
AIの説明中に「これは簡単すぎて説明するまでもないですね」と言うことで、相手の自主性を促すことができる。 ×
解説:
このような表現は相手を小さく見せ、質問しにくい雰囲気を作ります。「どの程度理解されていますか?」と確認し、相手のペースに合わせて説明することで、尊重の念を示しながら効果的に教えることができます。
86
「AIは難しくて私には無理」と言う人に対して、「いいえ、簡単ですよ」と即答するのは励ましになるため適切である。 ×
解説:
相手の感情を否定すると防衛的になることがあります。まずは「最初は誰でも難しく感じるものです」と共感し、段階的に学べることや、小さな成功体験から始められることを伝える方が効果的です。
87
AIに関する誤解を持つ人に対して、まず相手の考えを十分に聞いてから、正確な情報を提供するアプローチが効果的である。
解説:
相手の考えを最初に傾聴することで、誤解の根本原因を理解し、それに合わせた説明ができます。また、意見を尊重されていると感じることで、新しい情報を受け入れやすくなります。
88
AIツールを使いこなせない人に対して「こんなこともできないの?」という表現を使うことは、学習意欲を高めるために効果的である。 ×
解説:
このような否定的な表現は、自尊心を傷つけ学習意欲を低下させます。「最初は慣れが必要ですね」と共感し、できていることを肯定的に評価しながら、次のステップを示すアプローチが効果的です。
89
AIの限界について説明する際、「AIにはこういう欠点があります」と伝えるより「AIとしては現在ここまでできます」と肯定的に伝える方が効果的である。
解説:
ポジティブな表現は、限界について伝えつつも、AIの現在の能力を適切に評価し、将来の可能性も示唆できます。「できないこと」という否定的な枠組みではなく、「現在できること」という建設的な枠組みで説明することで、バランスの取れた理解を促せます。
90
AIについて教える際、自分自身の利用経験が少ない分野であっても、不確かな情報を提供するより「わからないので一緒に調べましょう」と言う方が誠実である。
解説:
誠実さと透明性は信頼関係の基盤です。不確かな情報を提供するより、知識の限界を認め、共に学ぶ姿勢を示すことで、より信頼性の高い関係を構築できます。また、問題解決のプロセスを共有することで、学習効果も高まります。
91
AIの使い方を質問されたとき、相手の目的や背景を聞かずに、できるだけ多くの情報を提供することが親切である。 ×
解説:
情報過多は混乱を招きます。相手の目的や背景を理解してから、必要な情報に絞って提供する方が効果的です。「具体的にどのような場面で使いたいですか?」など質問を通じて相手のニーズを探り、それに合わせた情報提供をするべきです。
92
講習会でAIツールの使い方を教える際、全員が同じペースで進められるよう、早く理解できた人には「少し待ってください」と指示するのが良い。 ×
解説:
学習ペースには個人差があります。早く理解できた人には発展的な課題や他の人のサポート役を依頼するなど、全員が有意義に時間を使える工夫をするべきです。
93
生成AIの操作方法を教える際、まず基本概念の説明から始めるより、簡単な実践例から始める方が効果的である。
解説:
特に初心者は抽象的な概念より具体的な体験から学ぶ方が効果的です。簡単な成功体験を先に提供し、実際に動かしてみた後で基本概念に触れると理解が深まります。
94
AIツールの使い方を質問された場合、可能な限り全ての機能を一度に網羅的に説明するべきである。 ×
解説:
情報過多は混乱を招きます。まずは質問された内容に直接関係する機能に焦点を当て、相手の理解度や関心に合わせて段階的に情報を提供する方が効果的です。
95
AIツールの使い方を教える際、「このボタンを押してください」という指示型の説明だけでなく、「なぜそうするのか」という理由も伝えることが重要である。
解説:
単なる手順の暗記ではなく、理由や背景を理解することで応用力が身につきます。「なぜ」を理解することで、似たような状況でも自分で判断できるようになります。
96
生成AIの使い方を教える際、「これは簡単です」「誰でもできます」と前置きすると、学習者の不安を和らげることができる。 ×
解説:
「簡単」と言われても理解できない場合、自己否定感を強めることがあります。代わりに「最初は慣れが必要ですが、段階的に学んでいきましょう」など、現実的な期待を設定する方が効果的です。
97
AIの限界について質問された場合、ネガティブな印象を与えないよう、限界よりも可能性や強みを中心に説明すべきである。 ×
解説:
AIの限界と可能性をバランス良く伝えることが重要です。限界を適切に伝えないと、非現実的な期待を持たせることになり、後の失望や誤用につながる可能性があります。
98
AIツールの操作中にエラーが発生した場合、「何をしたのですか?」と質問するより、「一緒に解決しましょう」と声をかける方が効果的である。
解説:
「何をしたのですか?」という質問は責めているように感じられ、不安や恥ずかしさを増幅させることがあります。代わりに協力的な姿勢を示すことで、学習者は安心して問題解決に取り組めます。
99
生成AIの使い方を教える際、教える側が操作してデモンストレーションするより、学習者自身に操作させながら指導する方が効果的である。
解説:
実際に手を動かして体験することで記憶に定着しやすくなります。教える側がデモを行うときも、その後で学習者に同じ操作を実践させることで理解が深まります。
100
同じ質問を何度もされた場合、「さっき説明したとおりです」と伝えれば、学習者は集中して聞くようになる。 ×
解説:
このような対応は学習者の自尊心を傷つけ、質問しにくい雰囲気を作ります。同じ質問でも「良い質問ですね」と肯定し、別の角度や例を用いて再度説明する方が効果的です。
問題集一覧に戻る テストを受験する