近年来,人工智能(AI)技术,特别是通用大模型,在金融领域的应用日益广泛。以DeepSeek为代表的大模型,其强大的数据处理和分析能力,使得其为投资者提供股票和基金投资建议成为可能,并逐渐形成一股潮流。然而,这同时也引发了一个关键问题:通用大模型荐股荐基是否应该纳入证券投资咨询牌照监管?
支持纳入监管的声音认为,越来越多的投资者依赖大模型的投资建议进行交易,这已经构成了事实上的证券投资咨询活动。如果不纳入监管,存在信息披露不透明、投资建议的准确性和可靠性难以保证,以及潜在的市场操纵风险等问题。这些风险不仅会损害投资者利益,也会影响金融市场的稳定性。因此,为保障投资者权益和维护市场秩序,对大模型的投资建议进行监管势在必行。
然而,反对“一刀切”监管的观点也并非没有道理。目前,大多数通用大模型更像是一个提供信息的工具,其本身并不直接进行投资建议,而是根据用户的输入数据进行分析和预测。技术中立的属性使得对大模型进行直接的证券投资咨询牌照监管存在难度。此外,监管的边界和标准也难以界定,如何平衡创新和监管,如何在不扼杀技术发展的同时有效防范风险,都是监管部门需要仔细考量的问题。
实际上,这个问题并非简单的“是”或“否”能够回答。监管部门需要采取更加 nuanced 的策略。这需要对大模型的应用场景进行细致分类,对不同类型的应用采取不同的监管措施。例如,可以对直接向投资者提供具体投资建议的大模型进行严格监管,而对仅提供数据分析和预测工具的大模型则采取较为宽松的监管措施。
此外,加强对大模型算法的透明度要求,完善信息披露机制,建立相应的投资者保护机制,也是非常必要的。监管部门可以鼓励大模型开发者建立健全的风险控制机制,定期对算法进行审计,确保其输出结果的准确性和可靠性。
总之,通用大模型在金融领域的应用带来了机遇与挑战。监管部门需要在鼓励创新和防范风险之间取得平衡,探索出一种既能促进技术发展,又能有效保护投资者利益的监管模式。这需要持续的探索和实践,以及相关利益方的共同努力。未来,监管部门在AI投顾领域的监管角色和治理路径将备受关注。