当前位置: win11系统之家 >  微软资讯 >  微软展示LLaVA-Med AI模型,可读CT和X光片,助力医疗影像诊断

微软展示LLaVA-Med AI模型,可读CT和X光片,助力医疗影像诊断

更新时间:2023-06-14 14:34:52作者:relsound

微软展示LLaVA-Med AI模型,可读CT和X光片,助力医疗影像诊断

DoNews6月14日消息,微软研究人员日前展示了 LLaVA-Med 模型,该模型主要用于生物医学方面的研究,可根据 CT、X 光图片等推测出患者的病理状况。

据悉,微软研究人员与一批医院合作,获得了使用生物医学图像文本对应大型数据集来训练多模态 AI 模型。该数据集包括胸部 X 光、MRI、组织学、病理学和 CT 图像等,覆盖范围相对全面。

微软使用 GPT-4,基于 Vision Transformer 和 Vicuna 语言模型,在八个英伟达 A100 GPU 上对 LLaVA-Med 进行训练,其中包含“每个图像的所有预分析信息”,用于生成有关图像的问答,以满足“可自然语言回答有关生物医学图像问题”的助手愿景。

在学习过程中,模型主要围绕“描述此类图像的内容”以及“阐述生物医学概念”而展开。据微软称,该模型最终具有“出色的多模式对话能力”、“在用于回答视觉问题的三个标准生物医学数据集上。LLaVA-Med 在部分指标上领先于业界其他先进模型”。

目前该模型已经开源。

本文源自iDoNews

相关教程