这个项目挺搞笑的 哈哈哈 你们看看😂
CLoT:训练LLM成为吐槽能手
用日本传统喜剧游戏“大喜利”(Oogiri)作为测试,挑战AI以吐槽高手的方式回应信息。
游戏中的挑战,AI需要理解给定图文信息来产生幽默搞笑的回答。
Oogiri 是一种需要参与者对给定的图像文做出意想不到且幽默的回应的创意游戏。
测试包括图像到文本(I2T)、文本到文本(T2T)和图像&文本到文本(IT2T)
具体方法:
建立数据集:研究人员构建了一个多模态、多语言的 Oogiri-GO 数据集,包含超过 130000 个样本。
训练 AI:通过特殊的训练方法,让 AI 学会如何在游戏中给出创意和幽默的回答。
CLoT 首先将 Oogiri-GO 数据集转化为 LoT 导向的指令调整数据,以训练预训练的 LLM 达到一定的 LoT 幽默生成和辨别能力。
然后,CLoT 设计了一个探索性自我完善过程,鼓励 LLM 通过探索看似无关概念之间的平行关系来生成更多创造性的 LoT 数据,并选择高质量数据进行自我完善。
实验结果:
实验结果显示,CLoT 能够显著提高 LLM(如 Qwen 和 CogVLM)在多种 Oogiri 游戏类型中的表现。具体来说,CLoT 帮助 LLM 生成了更好的幽默内容。
量化性能提升:与原始和 CoT 集成的 LLM 相比,CLoT 集成的 LLM 在 Oogiri 游戏的多项选择和排名问题中取得了更高的性能。
创造性能力的提升:CLoT 还在其他任务(如“云猜测游戏”和“发散性联想任务”)中提高了创造性能力,显示出其卓越的泛化能力。
项目及演示:https://t.co/uXr1UTDFzi
论文:https://t.co/g2L55cd4pe
GitHub:https://t.co/GBGuLq8I8i