科技有夕小瑶

获赞0
文章
10
评论
18
  • 昨夜谷歌振臂高呼:我们新的数学AI,能在IMO数学竞赛达到银牌水平!但就在谷歌发文的几个小时后,OpenAI就偷了谷歌的家:发布新的搜索方式SearchGPT,剑指挑战谷歌的搜索引擎。谷歌双模型并用攻克数学难题,离金牌只一分之遥为了能在IM
    科技有夕小瑶3月前
    720
  • 大模型的全参数微调对资源要求非常高,当前业界更倾向于采用LoRA,ParallelAdapter等参数高效微调(PEFT)方法,通过添加只占用LLMs全部参数很小部分(例如,0.1%)的可训练模块,损失小部分精度以换取低资源高效率的微调。但
    科技有夕小瑶5月前
    1250
  • 多模态大模型在不同的任务中表现出了令人印象深刻的能力,但是在处理复杂任务时,模型的性能仍然受到了单步推理范式的限制。为此,复旦团队联合字节跳动提出了VoCoT,这是一个多步骤的、基于视觉的、以对象为中心的思想链推理框架。VoCoT具有两个关
    科技有夕小瑶5月前
    890
  • 月16日至18日,2024全球6G技术大会在南京召开。会上,全球移动通信标准制定组织3GPP(第三代合作伙伴计划)的3位联席主席分享了3GPP6G标准时间表:2024年9月,启动6G业务需求研究;2025年6月,启动6G技术预研;2027年
    科技有夕小瑶5月前
    1310
  • 美国总统拜登最近成立了一个新的人工智能安全委员会,目的是解决人工智能技术可能对电网、机场等关键基础设施带来的潜在威胁。国土安全部部长AlejandroMayorkas是委员会的主席,他强调:“如果在关键基础设施中未能以安全、可靠和负责任的方
    科技有夕小瑶6月前
    1451
  • 就在昨天,英伟达CEO黄仁勋亲自将第一台英伟达DGXH200交付给OpenAI位于旧金山的总部,预示着两大科技巨头未来的合作可能会更加紧密。我们先来看看H200有多强。怪兽级性能相比于去年的H100,H200又有了巨大的提升,首先是显存达到
    科技有夕小瑶6月前
    990
  • 相信大家近期都被Llama3刷屏了。Llama3的预训练数据达到了15万亿,是Llama2的7倍;微调数据用了100万条人工标注数据,是Llama2的10倍。足以看出Meta训练Llama3是下了大血本的。开源社区拥抱Llama3也是空前热
    科技有夕小瑶6月前
    920
  • 在我们日益依赖人工智能来撰写文档、编写程序代码、甚至创作艺术作品的今天,我们是否曾经想过这些智能系统可能面临的被恶意操纵的风险?在潜在的网络攻击者面前,我们所使用的AI工具是否具备足够的坚固性以抵御这些威胁?分享几个网站GPT-3.5研究测
    科技有夕小瑶7月前
    910
  • 一直以来很多人问我能不能有个稳定,不折腾的全球AI大模型测试网站,既能够保证真实靠谱,又能够保证稳定、快速,不要老动不动就挂了、出错或者漫长的响应。到目前为止,笔者已经用过了国内不下10多个镜像站点了。无一例外的都有各种毛病——不是挂羊头卖
    科技有夕小瑶7月前
    1080
  • 在人工智能领域,尤其是自然语言处理(NLP)的子领域——问答系统(QA)中,知识的获取和利用一直是推动技术进步的核心问题。近年来,大语言模型(LLMs)在各种任务中展现出了惊人的能力,但它们在处理知识密集型任务时仍然存在局限性。为了解决这一
    科技有夕小瑶7月前
    1420