先做个广告:如需代注册GPT帐号或代充值ChatGPT4会员,请添加站长客服微信:gpt-app
📱中国科研人员开源了视觉语言理解系统LLaVA,这个系统能与GPT-4一样进行图像和语言理解,可能会对GPT-4构成挑战。
推荐使用ChatGPT中文版,国内可直接访问:https://ai.gpt86.top
中国科研人员从斯坦福大学、威斯康星大学马迪森分校和哥伦比亚大学开源了一个名为LLaVA的视觉语言理解系统。这个系统通过把视觉模型CLIP和语言模型LLaMA连接在一起,实现了对图像和语言的理解。在示范中,LLaVA系统能进行图像对话,这与私有的GPT-4系统效果相似,尽管LLaVA的数据训练规模要小很多。与GPT-4不同,LLaVA的代码、训练好的模型参数和生成的数据都公开在网上供人自由下载和使用。LLaVA系统证明了开源在推动视觉语言AI领域进步的潜力。尽管可能还无法与GPT-4的训练规模相比,但LLaVA初期表现出色和开放性都很令人印象深刻。
🧠安知的突破使AI模型可以被理解
人工智能公司安知研发出一种新的方法,可以解析语言模型如Claude内部单个神经元的功能,帮助研究人员更好地理解和解读模型的推理过程。
这个方法可以把500个神经元分解成一些具有更清晰意义的“特征”。例如从神经元组中提取出DNA特征、法律文本特征和HTML特征。单独激活一个特征,模型会表现出对应的行为。特征之间也能链接成复杂的系统,实现如生成有效HTML文档等功能。
这是一项巨大的突破,它可以让人更容易理解AI思考时内部的运算过程。这不仅对提升AI安全性至关重要,也将使人们能更充分地控制整个模型系统。