いい面も悪い面
現在、仕事をする上でGPT-4は僕にとって欠かせない存在になってしまいました。もちろん、いい面も悪い面もあります。目先のいい面に目を奪われてしまって、遅効性のある弊害から目をそらすのはだめなことだとわかっています。しかし、そもそも人間は目先の対応に追われがちなので、将来自分にどのような影響を与えるのかを考える間もなく使ってしまうところがあると思います。
今既に実感しているところで言えば検索エンジンを駆使して粘り強く探す能力やまず自分で考えるという能力が著しく低下してきていると思います。
背に腹は代えられない
とは言っても背に腹は代えられません。先日はWebサイトを作ったのですが、GPTのサポートで想定よりも2人日ほど早くできました。こうなってくると使わないという選択肢がなくなってきてしまうのです。実際社内エンジニアもGitHub CopilotというAIツールを使っている人がほとんどです。コーディングだけじゃなく、キャッチコピーやアイディア出し、翻訳、画像生成、資料作成の調査まで何でもやってくれます。
仕事以外にも、英会話や中国語会話の相手になってくれたり、私用の調べ事にも役立っています。おそらく僕世代のおっちゃんはGoogle検索世代で、Z世代あたりの人はインスタやXなどを検索ツールとして使うと思います。それが、今はおっちゃん世代がSNSを通り越してAIになってしまっているのです。
真偽性のチェック
とAIツールを絶賛しつつも、AIツールを使う上で注意しないといけないことがあると思います。そのうちの一つは当然のごとく真偽性のチェックです。AIは間違ったことを教えることがあります。質問の内容によってはほとんど間違っていることすらあります。ですので、自分で検索してクロスチェックを書ける必要があります。今はAIが教える際に参考にしたURLも引用元として表示してくれるようになったのでその作業はしやすくなりました。
もう一つはその人が持つ編集の力を発揮することです。AIは何でもロジカルに教えてくれます。理路整然、明朗、秩序立っておりわかりやすいです。それをそのまま使えばそれっぽくなります。しかし、それはAIの一つの癖でもあります。だからAIが教えてくれたことをそのまま使っていると、わかる人からすればすぐにわかってしまいます。
あえて人間らしさを取り込む
そこで資料を作るにしても、テキストを生成するにしても、AIのロジカルな良いところを残しつつ、編集者のカラーや個性や表現力を取り入れるようにしています。時にはおおげさに人間らしさを入れることもあります。そうしないと、「なんだ、これはどうせAIで作ったものだろう」と思われたら価値が毀損されてしまう可能性があるからです。
今年はまだAI元年から1年経過したくらいですが、年々考えさせられることが増えていきそうな気がしています。