生成AIの利用状況について、学生と企業それぞれの現状、活用事例、課題をまとめました。
学生全体の利用率は3割強。教員より高いが半数未満。
特に大学・大学院生で利用率が高い。
学生は利用を肯定的に捉えており、今後の利用拡大が見込まれる。
課題内容 | 該当する学生の割合 |
---|---|
ファクトチェック方法を知らない | 64% |
不正行為の判断ができない (高校生) | 5割 |
利用規約の年齢制限・保護者同意を知らない | 54% |
課題/レポートにコピペ提出経験あり | 27.8% |
学習活動がAIに依存する不安を感じる | 半数以上 |
教員の認識・要望 | 該当する教員の割合 |
---|---|
学生に不正行為をさせない取り組みが必要 | 約7割 |
学校・大学でのガイドラインが必要 | 約7割 |
ガイドライン策定と組織的支援、倫理教育(リスク知識、適切な利用・引用方法)の提供が必要。
項目 | 数値 |
---|---|
国内企業の業務での生成AI活用率 | 71.3% |
ただし、企業規模や業種により温度差あり。
普及率は依然として低い。導入企業では業務効率化の成果あり。
多くの経営者は多忙で着手できず、過去に試して活用できなかったケースも。
メリット | 詳細 / 数値 |
---|---|
非生産的業務の削減 | 報告書作成などをAIに任せ、本質的な仕事に注力可能 |
時間節約効果 | 活用者の58%が週に5時間節約 |
経営者自身のメリット理解と、勉強会/セミナー参加が重要。
自社特化AIの開発や、ビジネス向け製品の活用が進む。
リスクの種類 | 内容と対策 |
---|---|
情報漏洩 | 入力データが学習に使われ流出する可能性。 対策: 機密情報入力禁止ルール、学習機能無効化ツール、高セキュリティツール、ガイドライン整備、社員教育。 |
誤情報 (ハルシネーション) | 事実でない情報を生成する可能性。 対策: 人間によるファクトチェック必須、複数情報源との照合、チェックフロー構築。 |
権利の侵害 | 生成物が著作権・商標権・肖像権などを侵害する可能性。 対策: 汎用的なAIモデル選択、社員研修(権利理解)、法務連携チェック体制。 |
リテラシー・スキルの不足 | リスク把握・管理が難しいと感じる企業が61.4%。 対策: AI規制・倫理の理解、リスク対応体制整備。 |
生成AIは学生の学習や企業の業務効率化に大きな可能性を持つ一方、分野ごとの温度差や共通のリスク・課題が存在します。
今後はAIとの共存を前提とし、代替されにくいスキル(創造性、判断力)やAI活用スキルを身につけることが重要になります。