例如,除了自己的搜索引擎之外,您还可以快速创建基于文本和音频输入的聊天机器人,可以对底层数据进行提问和交互。您可以决定除了您自己的企业数据之外,基础模型的“知识”是否也应该包含在答案中。
这里的一个特点是,这样的聊天机器人不仅基于基本模型的动态生成的输出,而且还可以与基于规则的流程相结合。这实现了更高的可靠性,进而可以将任务委托给机器人。例如,在实践中,可以通过自然语言聊天直接安排约会。
此类应用程序已经可以直接组合到 Vertex AI Search and Conversation 的 UI 中。
整合与展望
考虑到所有这些令人兴奋的可能性,任何担心自己任务的人都可以 医疗实践电子邮件列表 放心:最大的挑战仍然是将新的生成式人工智能功能集成到您自己的产品中,以及相关的强大应用程序的开发。尽管在大多数情况下,大型语言模型的答案出人意料地精确、雄辩且富有洞察力,但在某些情况下,它们可能会产生意想不到的答案。无论是包含危险内容的文本(例如:制造炸弹的说明),还是只是意外不同结构的版本。如果我们依赖答案并想要直接解析它们,我们和我们的应用程序不可避免地依赖于大型语言模型的稳定性和可用性。
有点题外话
斯坦福大学和伯克利大学的研究人员最近发表的论文“ChatGPT 的行为如何随时间变化?”表明了这一问题的严重程度。
它描述了 GPT-4 和 GPT-3.5 的 3 月和 6 月版本之间有时存在巨大差异。在 3 月份的版本中,GPT-4 创建的代码仍有 52% 可以直接执行,但两个月后,只有 10% 的情况下才可以直接执行。 GPT-4 回答数学问题的准确性也急剧下降。 “[7306, 7311]中有多少个快乐数字?”这个问题最初的正确率是 83.6%,但最近只有 35.2% 的正确率。但与此同时,对于这个特定问题,GPT-3.5 的答案准确率从 30.6% 提高到 48.2%。
机器学习和软件工程师必须继续密切监控模型性能,尤其是模型行为,以确保一切顺利运行。因为如果模型的响应行为和精度不断变化,我们基于这些模型的应用程序也必须不断适应。
您对生成式 AI、机器学习、语言模型或一般 Google Cloud 是否还有其他疑问?您在AI领域面临哪些挑战?我们来谈谈吧。在我们的网站上,您还可以找到有关我们与 Google Cloud 合作伙伴关系以及已实施的用例的更多信息。请随时与我们交谈。
您想了解更多关于 adesso 世界中令人兴奋的话题吗?那么请看一下我们之前发布的博客文章。