近期阅读了很多有关ChatGPT话题,发现经过ChatGPT所得到的答案往往有较强的说服力,但答案的内容却缺少质量和正确性,这是否会导致某些领域的圈外人士和初学小白了解或学习信息的成本和难度大大提升?或添加学习、科普工作的难度?(感觉能养活一批营销号 ) 进一步,如果持续练习模型并完成对虚伪、过错案例的伪造和配对,是否能完成快速大批次制造更真实、更难辨的谣言?
近期阅览了大量有关ChatGPT论题,发现通过ChatGPT所得到的答案往往有较强的说服力,但答案的内容却缺乏质量和正确性,这是否会导致某些领域的圈外…