DoNews6月14日消息,微软研究人员日前展示了 LLaVA-Med 模型,该模型主要用于生物医学方面的研究,可根据 CT、X 光图片等推测出患者的病理状况。
据悉,微软研究人员与一批医院合作,获得了使用生物医学图像文本对应大型数据集来训练多模态 AI 模型。该数据集包括胸部 X 光、MRI、组织学、病理学和 CT 图像等,覆盖范围相对全面。
微软使用 GPT-4,基于 Vision Transformer 和 Vicuna 语言模型,在八个英伟达 A100 GPU 上对 LLaVA-Med 进行训练,其中包含“每个图像的所有预分析信息”,用于生成有关图像的问答,以满足“可自然语言回答有关生物医学图像问题”的助手愿景。
在学习过程中,模型主要围绕“描述此类图像的内容”以及“阐述生物医学概念”而展开。据微软称,该模型最终具有“出色的多模式对话能力”、“在用于回答视觉问题的三个标准生物医学数据集上。LLaVA-Med 在部分指标上领先于业界其他先进模型”。
目前该模型已经开源。
本文源自iDoNews
相关教程
2023-05-18
2023-08-05
2023-05-25
2024-10-11
2023-05-30
2023-05-12
2023-05-29
2023-05-29
2023-05-05
2024-09-27
2024-11-18
2024-11-18
2024-11-16
2024-11-16
2024-11-15
2024-11-14