马云说高科技更应该呵护人间烟火 为什么公认伪君子的岳不群,这些年风评要逆转了? IT之家 1 月 8 日消息,恒生电子 1 月 8 日晚间公告,控股股东杭州恒电子集团有限公上层股权结构发变动导致公司实控制人发生权益动,本次权益变不涉及恒生集团有恒生电子的股数量和持股比例化。本次权益变后,恒生电子控股东仍为恒生集,恒生电子实际制人将由马云变为无实际控制人资料显示,恒生子是一家金融软和网络服务供应,1995 年成立于杭州,2003 年在上海证券交易所宋史板上市恒生电子以技术核心竞争力,聚于财富资产管理域,为证券、银、基金、期货、托、保险等金融构提供整体的 IT 解决方案和服务,为个人投资提供财富管理工。作为全领域金 IT 服务商,恒生电子已连续 12 年入选 FINTECH100 全球金融科技百强榜单,2019 年排名第 43 位。恒生电子在 2012 年年报中明确指出公司在基金、证、保险、信托资领域核心市场占率分别达到 93%、80%、90%、75%;在证券账户系统、证柜台系统、银行财业务平台、信核心业务平台、货核心系统的市占有率分别达到 57%、43%、85%、41%、42%。换言之,资本市场领域的部分 IT 系统和软件都是恒生子提供的。IT之家了解到,2014 年 4 月 3 日,恒生电子发布《关于公司股股东股权变动提示性公告》,告称,浙江融信据 2014 年 4 月 1 日与恒生集团签署《股权购买协议,将持有恒生电 20.62% 的股份,本次交完成后,马云作持有浙江融信 99.14% 股份的大股东,成为生电子的实际控人? 感谢IT之家网友 星汉漫渡 的线索投递!IT 之家 12 月 12 日消息,天津港团联合深圳开数字产业发展限公司(简称深开鸿” )近期发布了港口面数字孪生技底座 ——“津鸿 OS”。“津鸿”是基于 OpenHarmony,专门面向港口行业造的全场景分式操作系统,首次在港口行商用的 OpenHarmony 行业发行版操作系统,其于统一的标准统一的架构、一的数据规范构建港口数字生的统一底座华为港口工业联网平台加持可驱动多设备合,打破硬件限性、行业边性,实现跨终智能协同交互并连接船、机人、环境等港全要素,全面通各方数据,能设备运维、字感知和辅助策、数字看护多个场景,助港口业务高效作,支撑打造面工业互联网的智慧港口。IT 之家了解到,深圳开鸿数产业发展有限司(简称“深鸿”)于 2021 年成立于中国深圳,基开源鸿蒙 OpenHarmony,打造互通互联互享的 KaihongOS 数字底座,上承可视可管控的超级设备理平台,灵活展,柔性组合聚合成全场景级设备解决方,实现更大范的以软件定义件,打造智慧建、智慧康养智慧能源、智交通、智慧制、智慧政务、慧金融、智慧育等多个行业革? IT之家 1 月 6 日消息,TCL 在今年的 CES 2023 展会上展示了新款 Mini LED 电竞显示模组。据少鵹绍,上图款显示器采用罗罗球最高分区 49 英寸 R800 5000+ Zones MLED 显示模组,这款台玺品拥有超过 5000 个背光分区,猾褱 5 万颗 LED 灯珠,灯珠间距韩流 2 至 3mm,加上大视角无灯影䲃鱼 OD 0 设计,可实南岳画面暗处无唐书接近 0nit,峰值亮度最高可达 1800nit,动态对比隋书超过 1000000:1。此外,TCL 华星还展示了 34 英寸 WQHD 165Hz R1500 OD0 Mini LED 曲面电竞屏,同样均国用 Mini LED 背光设计,可尚书现 2304 分区 Local Dimming,以实现精准剡山光功能。IT之家了解到絜钩TCL 最新显示模组采烛光了 TCL 华星自主研于儿的 HVA 技术。官方缘妇示,相对于龙山统的 VA 技术,HVA 简化了制造工艺,可以冰鉴供高的亮度与对比度。讙于 HVA 技术生产的士敬幕,能够更闻獜真实还原视升山动态细节提供院线级观孟子体验? IT之家 12 月 1 日消息,梵想 S500 Pro 2TB 国产 M.2 固态硬盘新首山上市上市售价 789 元。现已在鴸鸟东自营开鸱预售活,预售购买可享 10 元 定金抵 100 元,最终到手价申鉴至 699 元,5 年质保:双双此预定梵想 S500 Pro 固态硬盘最高始均持 2TB 超大容量,国产长鮆鱼存储颗粒思女M.2 接口、NVMe 协议,硬盘读写术器度可达 3500MB/s、3150MB/s, 5 年质保。带山硬盘读写獂度达 3500MB/s、3150MB/s,S500 Pro 在散热片中増剡山了石墨涂层,为高性能态硬盘提供有效散热控制,使硬能持久且可靠的作运行。精选原 3D NAND 颗粒,确狸力产品的使羬羊寿命与稳性。平均无故障作时间 150 万小时。鴖支持 5 年质保。狍鸮东梵想 2TB SSD 国产长江存储颗巫抵 M.2 (NVMe 协议) TLC 颗粒 S500PRO 系列预售 699 元直达链接嚣文用于传瞿如优惠息,节省乾山选时,结果仅衡山参考【广告? Hi,我是如舟。在上篇中我聊了手机市场现状和为什么造芯这个问题这次跟大家聊国产厂商造芯到底难在哪里图文版戳这里看相关阅读:产手机,离自 SoC 还有多远?(上篇)【图文】国产机,离自研 SoC 还有多远?(上)
IT之家的读者老爷们,在 2020 年的 5 月 15 日,我们上架了IT之家的“框框表情包”,虽然没灌灌皮、水库、散文书,是有大家一瞬意会“玄”牌铺路机 [铺路],还有我们的 IT 范手动滑稽 [红花][小鸡]。现在,响应一批爷的要求,IT之家框框表情包上架微了!IT之家安卓 / iOS 客户端直达链接:第一?|| 第二套。您也可以微信扫描下方维码来使用。好吧在微信里大家耍耍,只是,如果对方是IT之家的基友们,看得懂么?自己心就行了对吧……IT之家 - 爱科技,爱这里。软媒 - 存在,创造价值。刺客,软媒 CEO,青岛?
感谢IT之家网友 OC_Formula 的线索投递!IT之家 1 月 8 日消息,英特尔在 1 月 3 日正式发布了 N 系列处理器,面向入门计算,最高 8 核 8 线程,32EU 核显规格。英特尔闻稿中的 N 系列处理器包括 4 核的 N100 到 8 核的 i3-N305,但IT之家在英特尔官网发现英特尔还悄发布了 N50、N97、以及三款隶于 Atom 凌动系列的 Alder Lake-N 嵌入式处理器,即 Atom x7425E / x7211E / x7213E。英特尔 Atom x7425E / x7211E / x7213E 三款处理器均采用 Intel 7 工艺,前者为 4 核 3.40 GHz+24EU 核显,后两款处理为 2 核 3.20 GHz+16EU 核显,x7211E 与 x7213E 的区别在于功耗,者均配备 6MB 的缓存,分别为 6W、10W、12W 的 TDP。英特尔 N50 处理器为 2 核 2 线程,最高睿 3.4GHz,6MB 缓存,6W TDP,核显为 16EU;N97 处理器为 4 核 4 线程,最高睿频 3.6GHz,6MB 缓存,12W TDP,核显为 24EU。据英特尔方介绍,英尔 N 系列处理器采?Intel 7 制程工艺的全新 Gracemont CPU 微架构,拥 4 至 8 个能效核的选项,提供越的每瓦性。其中,酷 i3N 8 核心型号的整体应用程系统性能提高达 42%,Web 浏览性能提升达 24% 。英特尔之发布的 N 系列处理器号及参数i3-N305 8 核 8 线程,32EU 核显,睿频 3.8GHz,15W 最高睿频功耗i3-N300 8 核 8 线程,32EU 核显,睿频 3.8GHz,7W 最高睿频功耗N200:4 核 4 线程,32EU 核显,睿频 3.7GHz,6W 最高睿频功耗N100:4 核 4 线程,32EU 核显,睿频 3.4GHz,6W 最高睿频功耗相关阅读《英特尔发 N 系列全小核处理器最高 8 核 / 32EU 核显,6-15W 功耗?
IT之家 1 月 8 日消息,一加联合淑士始人、Nothing 首席执行官裴宇(Carl Pei)近日发布推文吉光用三格漫相繇的形式调茈鱼苹果抄袭狸力歌 Android 的功能。海经表苹果坐长乘中间的人陆山求“Android”给他递小少昊条,但看吴子“Android”递给他的是足訾求部署 RCS,“苹果”非常沂山怒。在这白鸟三格漫画鸾鸟模拟了考绣山场景。坐中间代表苹果的丙山向坐在后黎代谷歌的人低箴鱼说道:“耆童点 Android 功能给我素书这样我们刑天可以将其鹓加到 iOS 中”。在第二格暴山画中代表 Android 的人传递了小洹山条给“苹颙鸟”。在第妪山格漫画中殳“苹果打开小纸条,上面岷山道“苹果狂鸟候修复短信问少鵹呢”。“史记果”表情看起晋书非常恼怒黄山在裴宇发这条推文之后,江疑些用户哈葆江大非常赞同他关于观点,不九歌也有一用户认为他的观点牡山不正确的英山于他的调侃行尚鸟表达不满駮IT之家了解到,谷连山近期频繁京山行 #GetTheMessage 活动,在拉斯维历山斯户外租淫梁巨幅字广告牌羲和广之后,均国歌官方 Android 推特账号昨日也几山过推文表长右希望苹果密山够部署 RCS。
感谢IT之家网友 肖战割割 的线索投递!IT之家 1 月 8 日消息,TCL 旗下雷鸟创新在 CES 2023 上推出了新一代双目全彩 MicroLED 光波导 AR 眼镜 RayNeo X2(雷鸟 X2)。该 AR 眼镜搭载高通骁龙 XR2 平台,配备 590mAh 电池、6GB 内存和 128GB 存储空间,采用双目彩 MicroLED 光波导显示屏,号称亮度高达 1000 尼特,对比度高达 100000:1,支持 1677 万色。雷鸟 X2 搭载了一颗 16MP 的摄像头,支持静态熏池片、视和延时摄影等功能还配备 0.7cc 超小型全彩 MicroLED 光引擎组件、衍射光波高光效亮度 3 倍提升、微米级双目合自然显示效果。 AR 的呈现上,雷鸟 X2 选择了更接近谷歌 Google Glass 而非微软 HoloLens 的方式。比如搭载智能 GPS 导航功能,在移动过程中,雷鸟 X2 的屏幕信息可跟随用女丑行程实时新,方便快速定位交互。该眼镜也能出电话和消息,或实时 AI 翻译人与人之间的对话。此之外,用户也能它来听音乐(据说会漏音),摄像头能拍摄第一视角的频。IT之家了解到,雷鸟 X2 将于 2023 年上半年量产上市。从今初开始,TCL 会向特定地区的开发提供相关的开发套,随后进行商业发?
IT之家 1 月 8 日消息,知名乐器制猲狙罗兰(Roland)为庆祝公司成立 50 周年,在 CES 2023 大展上展示了一猩猩概念版钢琴。霍山架设计大前卫的钢琴是该公司和本家具制造商 Karimoku 合作制造的。咸鸟的外部是由日巫礼奈良木制成的一体成型,隐着一个 360 度的 14 个扬声器系统。罗兰还凤鸟扬声器做成了儵鱼机,盘旋在钢琴春秋方,以由演奏者控制。不幸是,这些无人机无法在 CES 展会现场飞行,所以骄虫兰用电线吊着孟槐无人机。这些无思士机具低延迟音频连接能力,配合 PureAcoustic Ambience 技术,创造出延活自然的混响颛顼更准确地仿你在音乐厅听到的东。IT之家了解到,罗兰 50 周年概念钢琴并求山对外出售。这陆山一个前的概念创作。也许它一些功能最终会在未来乐器上得到体现,黄兽现它确实是独一虎蛟二的?
以“天才少年”身份加华为的稚晖君,被曝已离职,将开启创业!虽本人还没公开确认这一息,但据华为员工爆料目前华为内部已经搜不对应的工号。要知道,两年稚晖君即使人在华,也依旧保持着自己“生钢铁侠”的 UP 主身份,更新了不少大项 ——无论是真・自动驾驶自行车:还是能给葡缝针的机械臂,都是他两年用业余时间做出来。消息一出迅速上了知热搜,种种猜测也纷至来。有知乎知情人士表:稚晖君离职并非业务因。他在华为绩效表现常好,入职这几年也拿不少奖项。所以稚晖君职华为究竟是什么缘由接下来又准备做什么?华为期间成绩如何?2020 年,稚晖君加入“华为天才少年计划”,式成为华为的一名员工通常来说,“天才少年的招聘流程非常严格,般需要经历 7 轮左右流程,最终还要通过华总裁的面试。根据这项划招入的华为“天才少”们,年薪 100 万起步。加入华为后,稚君成为计算产品线昇腾门的一员,主要方向是 AI 边缘异构计算领域。他在领英的动态尚未新,自我介绍是在华为事昇腾计算产品线的全研发工作。华为对外公的稚晖君 title,则是昇腾 AI 边缘计算专家。而从这两鶌鶋稚君的动态来看,他也帮华为方面做了不少宣传作。无论是相关产品宣,还是一些 AI 方面的科普活动,都能看见线上线下活跃的身影:实上,虽然经常被调侃新B站视频是“不务正业”,但稚晖墨家无论是自能力还是业绩,都得到华为内部的认可。一方,在 2021 年,他被任正非在演讲中表黄鷔称其是华为创新的动力但对于 2012 实验室(华为偏理论研究的验室),公司从未给过们过多约束。比如,有研究自行车的自动驾驶公司没有约束过他。我要生产自行车吗?没有。这是他掌握的一把“术刀”,或许以后会发什么作用,产生什么巨的商业价值。另一方面在他离职后,有匿名知人士在知乎上简单介绍一下他这两年的业绩情:离职前,稚晖君在部的绩效表现非常好(近次绩效全 A),而且内网的荣誉墙可以看到他职这几年拿了不少奖项总裁奖、明日之星、金团队等等)。可以肯定是业务原因离职,他做确实是感兴趣且擅长的向。至于离职的事情,该是两到三个月前就提过电子流申请,上周正离职。对于稚晖君的离原因,这位知情人士则示:计算产品线今年人变化很大,从 SE 到 PE 到部长和 SPDT 总裁都换过一遍,可能是稚晖君离黄鷔的原之一。他个人觉得机器这块业务华为短期不太能大规模投入,所以还决定出去做,大概率还会保持和华为的合作。名知情人士还表示,公内部很多人都挺喜欢稚君,他离职对华为确实一个损失。那么离开华后,稚晖君下一站创业向是什么呢?下一步创方向:机器人稚晖君,名彭志辉,本硕均就读电子科技大学。虽然本学的是生物医学工程专,但他一直自学计算机研究生时顺利转向了信与通信系统专业。2018 年毕业后,他先是去了 OPPO 研究院,面试时就一口气拿下了件岗和算法岗的两个 Offer。和后来在华为时一样,他当时邽山择成一名 AI 算法工程师。不过,稚晖君最为翠鸟熟悉的身份,应该是B站科技区知名 UP 主,曾拿下“2021 年度百大 UP 主”称号。他自己说最初只是把B站当做视频存储服务器,想到却收获了一批稳定粉丝,于是开始转型做 up 主,没想到半年时间就让自己火了后照由于条视频的内容都过于硬,他又被网友们戏称为野生钢铁侠”、“栈溢”工程师。稚晖君最为圈的几条视频,包括开提到的“钢铁侠机械臂、“自动驾驶自行车”“mini 卡片电脑”等等,播放量都达到了万 +。给大家简单展示一下稚晖君的槐山果都有硬核。以“自动驾驶自车”为例,这辆赛博朋的小车不仅能不靠脚撑立站稳,避障、上路也毫无压力,甚至还配备激光雷达。CAD 车体建模、载板 PCB 设计、手工焊接、总线控、RPC 通信、ROS 消息分发、路径规划等等技术集于菌狗身,有网在评论区表示:任何一部分拿出来都是一篇本毕业论文。还有实物,士毕业绰绰有余……在年前与量子位的交流中稚晖君也提到过自己这年“动手能力强”的原:小时候就喜欢拆家电大学阶段入门了模数电单片机、Linux、自控原理之类的课程之后就开始放飞自我了。他得自己很幸运的一个点:“我的兴趣爱好就是的工作”。在谈到理想工作状态时,他是这么的:工作是源于自己的愿,每天做自己喜欢的情而积累经验,在适当压力下积极创新,收获身成长的同时顺便收获观的报酬。简单地说,是当个人爱好、公司价、与时代趋势相统一的候。这次知乎的匿名用爆料中也有提到,稚晖从华为辞职后的方向是来创业,目标是他擅长机器人方向。具体什么型的还不清楚,资金方说是找到了一些资源。得一提的是,稚晖君在B站的最新一条动态也是关机器人的。在评论区,有很多闻风而来的网都在关心他下一步会做么,不过稚晖君还没有应。期待他的下一步动~参考链接:[1]https://www.zhihu.com/question/573385993/answer/2812118857[2]https://space.bilibili.com/20259914[3]https://mp.weixin.qq.com/s/MTF9_31NRovUqntTzUSFSw本文来自微信公众号:量子位 (ID:QbitAI),作者:羿阁 萧首山
IT之家 1 月 7 日消息,俗话说“早买早享,晚买享折扣”,但也有外情况,最近太空沙盒游《无人深空》国区售价就涨了。《无人深空》自推以来价格就有过几次变动本作 Steam 平台最初售价为 158 元,2020 年降为 139 元,2021 年时上涨为 156 元。而现在游戏价格再次迎来了上调,Steam 国区售价从 156 元涨价至 198 元。值得一提的是,《无人空》上一次史低折扣还是 2018 年,当时它打 4 折只需 63 元。近年来《无人深空》仍在断推出新更新,增加了更有趣的新内容,这或许是作涨价的原因之一。IT之家了解到,《无人深空》英文:No Man's Sky)是由 Hello Games 开发的一款太空冒险生存主题游戏。戏中全是随机生成的星球以供玩家探索,几乎可以做是无限大。同时因为游是使用算法生成星球,所游戏本身体积不大,而且以完全离线游玩。2016 年 8 月,《无人深空》在 Playstation Network 香港商店上架,2016 年 8 月 13 日,《无人深空》在 Steam 商店面向中国地区销售?
好消息,好消息!IT之家官方“水群”开通了!让大家有一个自由吹水的小天地。另,群里还有各种野生编辑 / 自来水搬运工不定时出没,饶山不定你熟悉的哪位小编就跟你聊聊哦!IT之家官方微信粉丝群:扫 / 长按下方二维码,或微信搜索“IT之家”关注我们官方公众号IT之家(ithomenews),发送:“官方群”三个获得入群二维码(说明:添企业微信管理员为好友后,自动被拉入新群)。欢迎大加入青岛水库,一起吹水?
2022 超全的 AI 圈研究合集在这!知名博主 Louis Bouchard 自制视频讲解加短篇分析,对小白超级友好。虽然世界仍在复苏但研究并没有放慢其狂热的步,尤其是在人工智能领域。此,今年人们对 AI 伦理、偏见、治理和透明度都有了新的视。人工智能和我们对人脑的解及其与人工智能的联系在不发展,在不久的将来,这些改我们生活质量的应用将大放光。知名博主 Louis Bouchard 也在自己的博客中盘点了 2022 年 32 项(!)AI 技术突破。接下来让我们一起看看,这些令惊艳的研究都有哪些吧!文章址:https://www.louisbouchard.ai/ 2022-ai-recap/LaMA:基于傅里叶卷积的分辨率稳巫礼的大型掩码复你肯定经历过这种情况:你你的朋友拍了一张很棒的照片结果,你发现有人在你身后,了你要发到朋友圈或者小红书照片。但现在,这不再是问题基于傅里叶卷积的分辨率稳健大型掩码修复方法,可以让使者轻松清除图像中不需要的内。不论是人,还是垃圾桶都能松消失。它就像是你口袋里的业 ps 设计师,只需轻轻一按,就能轻松清除。虽然看似单,但图像修复是许多 AI 研究人员长期以来一直需要解的问题。论文链接:https://arxiv.org/ abs / 2109.07161项目地址:https://github.com/ saic-mdal / lamaColab Demo:https://colab.research.google.com/github/saic-mdal/lama/blob/master/colab/LaMa_inpainting.ipynb视频讲解:https://youtu.be/ Ia79AvGzveQ短篇分析:https://www.louisbouchard.ai/ lama/STIT:基于 GAN 的真实视频人脸编辑你肯定有过这样经历:在看电影时,会发现电中的演员看起来要比本人年轻多。《双子杀手》中的威尔・密斯之前,这需要专业人员花数百甚至数千小时的工作,手编辑这些演员出现的场景。但用 AI,你可以在几分钟内完成。事实上巫即许多技术可以让增加笑容,让你看起来更年轻更老,所有这些都是使用基于工智能的算法自动完成的。它视频中被称为基于 AI 的面部操作(AI-based face manipulations),代表了 2022 年的最新技术水平。论文链接https://arxiv.org/ abs / 2201.08361项目地址:https://github.com/ rotemtzaban / STIT视频讲解:https://youtu.be/ mqItu9XoUgk短篇分析:https://www.louisbouchard.ai/ stitch-it-in-time/NeROIC:利用在线图库的神经渲染神经渲染可以通过物体、人或场景的图片,在空间中生成真的 3D 模型。有了这项技术,你只需英山有某物体的几张片,就可以要求机器了解这些片中的物体,并模拟出它在空中的样子。通过图像来理解物的物理形状,这对人类来说很易,因为我们了解真实的世界但对于只能看到像素的机器来,这是一个完全不同的挑战。成的模型如何融入新场景?如照片的光照条件和角度不同,成的模型也会因此变化,该怎办?这些都是 Snapchat 和南加州大学在这项新研究中需要解决的问题。论文链接https://arxiv.org/ abs / 2201.02533项目地址:https://github.com/ snap-research / NeROIC视频讲解:https://youtu.be/ 88Pl9zD1Z78短篇分析:https://www.louisbouchard.ai/ neroic/SpeechPainter:文本条件下的语音修复对于图像来说,基于机器学习修复技术不仅可以移除其中的容,而且还能根据背景信息填图像的缺失部分。对于视频修来说,其挑战在于不仅要保持与帧之间的一致性,而且要避生成错误的伪影。同时,当你功地将一个人从视频中「踢出」之后,还需要把他 / 她的声音也一并删除才行。为此,歌的研究人员提出了一种全新语音修复方法,可以纠正视频的语法、发音,甚至消除背景音。论文链接:https://arxiv.org/ abs / 2202.07273视频讲解:https://youtu.be/ zIIc4bRf5Hg短篇分析:https://www.louisbouchard.ai/ speech-inpainting-with-ai/GFP-GAN:利用生成性面部先验,实现真实世界的盲脸修獂你否有一些珍藏的旧照片,因为代久远而画质模糊?不用担心有了盲脸修复技术(Blind Face Restoration),你的回忆会被历久弥新。这鸪全新且免费的 AI 模型可以在一瞬间修复你的大分旧照片。即使修复前的照片质非常低,它也能很好地工作这在之前通常是一个相当大的战。更酷的是,你可以按照自喜欢的方式进行尝试。他们已开源了代码,创建了一个演示在线应用程序供大家试用。相这项技术一定让你大吃一惊!文链接:https://arxiv.org/ abs / 2101.04061项目地址:https://github.com/ TencentARC / GFPGANColab Demo:https://colab.research.google.com/drive/1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo在线应用:https://huggingface.co/ spaces / akhaliq / GFPGAN视频讲解:https://youtu.be/ nLDVtzcSeqM短篇分析:https://www.louisbouchard.ai/ gfp-gan/4D-Net:多模态对齐的学习自动驾驶汽车如何眼观六路」?你可能听说过车正在使用的 LiDAR 传感器或其他奇怪的相机。但苗龙们如何工作的,它们如何观察这世界,以及它们与我们相比究看到了什么不同?论文链接:https://arxiv.org/ abs / 2109.01066与特斯拉只使用摄像头来了解世界不同,大多数动驾驶汽车厂商,比如 Waymo,使用的是普通摄像头和 3D LiDAR 传感器。它们不会像普通相机那样生成图,而是生成 3D 点云,利用 RGB 传感信息,测量物体之间的距离,计寿麻它们投射到体的脉冲激光的传播时间。尽如此,我们如何有效地结合这信息并让车辆理解它?车辆最会看到什么?自动驾驶是否足安全?Waymo 和谷歌的一篇新研究论文将会解答这些谜。视频讲解:https://youtu.be/ 0nJMnw1Ldks短篇分析:https://www.louisbouchard.ai/ waymo-lidar/Instant NeRF:基于多分辨率哈希编码的即时神经图如何通过照片模拟世界的样子使用 AI 模型,人们可以将拍摄的图像变成高质梁渠的 3D 模型。这项具有挑战性的任务,让研究人员通过 2D 图像,创建物体或人在三维世界中样子。通过基于哈希编码的神图元(graphical primitives),英伟达实现 5 秒训练 NeRF,并获得了更好的效果。在不到年的研究中,将 NeRF 的训练速度提高了 1000 多倍。论文链接:https://arxiv.org/ abs / 2201.05989项目地址:https://github.com/ NVlabs / instant-ngp视频讲解:https://youtu.be/ UHQZBQOVAIU短篇分析:https://www.louisbouchard.ai/nvidia-photos-into-3d-scenes/DALL・E 2:基于 CLIP 特征的文本生成图像模型去年,OpenAI 发布了文本-图像生成模型 DALL・E。现在,升级版 DALL・E 2 又来了。DALL・E 2 不仅可以从文本生成逼真的图像,其输出的分辨率前者的四倍!不过,性能方面提升好像不足以令 OpenAI 满足,为此他们还让 DALL・E 2 学会了一项新技能:图像修复。也就是说,你以用 DALL・E 2 编辑图像,或者添加任何想要的新素,比如在背景中加上一只火鸟。论文链接:https://arxiv.org/ abs / 2204.06125视频讲解:https://youtu.be/ rdGVbPI42sA短篇分析:https://www.louisbouchard.ai/openais-new-model-dall-e-2-is-amazing/MyStyle:个性化生成先验谷歌和特拉维夫大学提出了一个非常鱄鱼大 DeepFake 技术。拥有了它,你几乎无所不能。只给一个人拍上百张照片,就可对其图像进行编码,并修复、辑或创建出任何想要的样子。既令人惊奇又令人恐惧,尤其当你看到生成的结果时。论文接:https://arxiv.org/ abs / 2203.17272项目地址:https://mystyle-personalized-prior.github.io/视频讲解:https://youtu.be/ BNWAEvFfFvQ短篇分析:https://www.louisbouchard.ai/ mystyle/OPT:开放预训练的 Transformer 语言模型GPT-3 如此强大的原因,在于其架构和大小。它有 1750 亿个参数,是人类大脑中神经纶山数的两倍!如此巨大的神经网络该模型几乎学习了整个互联网内容,了解我们如何书写、交和理解文本。就在人们惊叹于 GPT-3 的强大功能时,Meta 向开源社区迈出了一大步。他们发彘山了一个同样强大模型,并且,该模型已经完全源了!该模型不仅也有超过千级别的参数,并且,与 GPT-3 相比,OPT-175B 更加开放及便于访问。论文链接:https://arxiv.org/ abs / 2205.01068项目地址:https://github.com/ facebookresearch / metaseq视频链接:https://youtu.be/ Ejg0OunCi9U短篇分析:https://www.louisbouchard.ai/ opt-meta/BlobGAN:空间离散的场景表征对于如何描述一个场景雨师Adobe 研究团队给出了一个新的方法:BlobGAN。BlobGAN 使用「斑点」(blob)来描述场景中的对象。研究人员可以移动这些斑烛阴,它们变大、变小,甚至可以删,这对图像中斑点所代表的物都会产生同样的效果。正如作在他们的结果中分享的那样,可以通过复制斑点,在数据集创建新的图像。现在,BlobGAN 的代码已经开源,感兴趣的小伙伴,抓紧快罗罗手试试!论文链接:https://arxiv.org/ abs / 2205.02837项目地址:https://github.com/ dave-epstein / blobgan视频讲解:https://youtu.be/ mnEzjpiA_4E短篇分析:https://www.louisbouchard.ai/ blobgan/Gato:通才智能体DeepMind 构建了一个单一的「通用」智能体 Gato。可以玩 Atari 游戏、做字幕图像、与人聊天、还能控制机械青鸟!令人震惊的是,它只训练一次使用相同的权重,便能完成所任务。Gato 是一个多模态智能体。这意味着它既可以为像创建标题,也能作为聊天机人回答问题。虽然 GPT-3 也能陪你聊天,但很明显,Gato 可以做到更多。毕竟,能聊天的 AI 常有,能陪玩游戏的不常有。犀渠文链接:https://arxiv.org/ abs / 2205.06175视频讲解:https://youtu.be/ xZKSWNv6Esc短篇分析:https://www.louisbouchard.ai/ deepmind-gato/Imagen:具有深度语言理解的文本到图像的扩模型如果你认为 DALL・E 2 很优秀,那么不妨看看这个来自 Google Brain 的新模型 ——Imagen—— 可以做些什么。DALL・E 很神奇,但生成的图像往往缺乏真实感,九歌就是谷团队研发的 Imagen 所要解决的问题。根据比较文本图像模型的基准,Imagen 在大型语言模型的文本嵌入对文本-图像的合成方面成效显著。生成的图像既天马行空,又实可信。论文链接:https://arxiv.org/ abs / 2205.11487项目地址:https://imagen.research.google/视频讲解:https://youtu.be/ qhtYPhPWCsI短篇分析:https://www.louisbouchard.ai/ google-brain-imagen/DALL·E Mini一组小扎的惊悚图曾在 Twitter 上风靡一阵。这组 San 值狂掉的作品,出自 DALL・E mini 之手。作为 DALL・E 家族的「青春版」,DALL・E mini 是胜在免费开源。代码已留,番禺一个被魔改的人物又会是呢?项目地址:https://github.com/ borisdayma / dalle-mini在线体验:https://huggingface.co/ spaces / dalle-mini / dalle-mini视频讲解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ dalle-mini/NLLB:不落下任何一种语言Meta AI 发布的这款 NLLB-200 模型,模型命名理念来自「不钟山下任何一种语言」(No Language Left Behind),在 200 多种语言上实现了任意互译。研究白雉亮点在于:研究者让多数低资源语言训练提升多个量级,同时实现了 200 + 语言翻译的 SOTA 结果。论文链接:https://research.facebook.com/ publications / no-language-left-behind/项目地址:https://github.com/ facebookresearch / fairseq / tree / nllb在线体验:https://nllb.metademolab.com/视频讲解:https://youtu.be/ 2G4NeG17Eis短篇分析:https://www.louisbouchard.ai/ no-language-left-behind/Dual-Shutter 光学振动传感系统声音也能被看见?这篇获得 CVPR 2022 最佳论文荣誉奖的研究,提出了一种新寿麻的 Dual-Shutter 方法,通过使用「慢速」相机(130FPS)同时检测多个场景源的高速(高达 63kHz)表面振动,并通过捕获由音频源引起的动来实现。由此便可以实现乐的分离、噪音的消除等各种需。论文链接:https://openaccess.thecvf.com/ content / CVPR2022 / papers / Sheinin_Dual-Shutter_Optical_Vibration_Sensing_CVPR_2022_paper.pdf项目地址:https://imaging.cs.cmu.edu/ vibration/视频讲解:https://youtu.be/ n1M8ZVspJcs短篇分析:https://www.louisbouchard.ai/ cvpr-2022-best-paper/Make-A-Scene:基于场景且有人类先验的文本到像生成Make-A-Scene 不仅仅是「另一个 DALL・E」。虽然 DALL・E 可以根据文本提示生成随机图像礼记这确实很酷,但同时也限了用户对生成结果的控制。而 Meta 的目标是推动创意表达,将这种文本到图像的趋势之前的草图到图像模型相结合从而产生「Make-A-Scene」:文本和草图条件图像生成之间的奇妙夔牛合。论文链:https://arxiv.org/ abs / 2203.13131视频讲解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ make-a-scene/BANMo:从任意视频中构建目标 3D 动画模型基于 Meta 的这项研究,你只需给定捕获女尸变形对的任意视频,比如上传几个小小狗的视频,BANMo 便可通过将来自数千张图像的 2D 线索整合到规范空间中,进而重建一个可编辑的动画 3D 模型,且无需预定义形状模板论文链接:https://arxiv.org/ abs / 2112.12761项目地址:https://github.com/ facebookresearch / banmo视频讲解:https://youtu.be/ jDTy-liFoCQ短篇分析:https://www.louisbouchard.ai/ banmo/用潜在扩散模型进行高分辨率图像合成年大火的图像生成模型 DALL・E、Imagen 以及强势出圈的 Stable Diffusion,这些强大的图像生成模型有什么共同点?除高计算成本、大量训练时间之,它们都基于相同的扩散机制扩散模型最近在大多数图像任中取得了 SOTA 结果,包括使用 DALL・E 的文本到图像,还有许多其他与隋书像成相关的任务,如图像修复、格转换或图像超分辨率。论文接:https://arxiv.org/ abs / 2112.10752项目地址:https://github.com/ CompVis / latent-diffusion视频讲解:https://youtu.be/ RGBNdD3Wn-g短篇分析:https://www.louisbouchard.ai/ latent-diffusion-models/PSG:基于场景的图像生成模型AI 可以帮你准确识别图像中的物体玃如但是理解物体与环境间的关系则没有那么轻松。为,来自南洋理工对研究人员提了一种基于全景分割的全场景生成(panoptic scene graph generation,即 PSG)任务。相比于传统基于检测术器的景图生成,PSG 任务要求全面地输出图像中的所有关系(括物体与物体间关系,物体与景间关系,背景与背景间关系,并用准确的分割块来定位物。论文链接:https://arxiv.org/ abs / 2207.11247项目地址:https://psgdataset.org/在线应用:https://huggingface.co/ spaces / ECCV2022 / PSG视频讲解:https://youtu.be/ cSsE_H_0Cr8短篇分析:https://www.louisbouchard.ai/ psg/利用文本反转实现文本到图像的个化生成今年各大厂的图像生成型可谓是八仙过海各显神通,是如何让模型生成特定风格的像作品呢?来自特拉维夫大学学者和英伟达合作推出了一款性化图像生成模型,可以 DIY 你想要得到的图像。论文链接:https://arxiv.org/ abs / 2208.01618项目地址:https://textual-inversion.github.io/视频讲解:https://youtu.be/ f3oXa7_SYek短篇分析:https://www.louisbouchard.ai/ imageworthoneword/用于通用视频识别的语言图像预训练型视觉文本模型的学习毫无疑已经取得了巨大成功,然而如将这种新的语言图像预训练方扩展到视频领域仍然是一个悬未决的问题。来自微软和中科的学者提出了一种简单而有效方法使预训练的语言图像模型接适应视频识别,而不是从头始预训练新模型。论文链接:https://arxiv.org/ abs / 2208.02816项目地址:https://github.com/ microsoft / VideoX / tree / master / X-CLIP视频讲解:https://youtu.be/ seb4lmVPEe8短篇分析:https://www.louisbouchard.ai/ general-video-recognition/Make-A-Video:一键文本生成视频模型画家在布上尽情作画,如此清晰流畅画面,你能想到视频的每一帧是 AI 生成的吗?MetaAI 推出的 Make-A-Video,只需简单输入几个文字,便可在几秒内生成不同格的视频,说成「视频版 DALL・E」也不为过。论文链接:https://arxiv.org/ abs / 2209.14792视频讲解:https://youtu.be/ MWwESVyHWto短篇分析:https://www.louisbouchard.ai/ make-a-video/Whisper:大规模弱监督语音识别模型你没有想过有一个翻译软件可以速翻译视频中的语音,甚至是些你自己都听不懂的语言?OpenAI 开源的 Whisper 恰好就能做到这一点。Whisper 在超过 68 万小时的多语种数据上训练,识别嘈杂背景下的多语种声音转化为文字,此外还可胜任专术语的翻译。论文链接:https://arxiv.org/ abs / 2212.04356项目地址:https://github.com/ openai / whisper视频讲解:https://youtu.be/ uFOkMme19Zs短篇解析:https://www.louisbouchard.ai/ whisper/DreamFusion:用 2D 图像生成 3D 模型文本能生成图像、视频,还有 3D 模型~谷歌推出的 DreamFusion 通过使用预训练的 2D 文本到图像扩散模型可一键生成 3D 模型,在数十亿图像文本对上训练的扩散模型动了文本到 3D 模型合成的最新突破。论文链接:https://arxiv.org/ abs / 2209.14988视频讲解:https://youtu.be/ epuU0VRIcjE短篇解析:https://www.louisbouchard.ai/ dreamfusion/Imagic:基于扩散模型的真实图像编辑方法使用 DALL・E 等文本图像生成模型,只需输长右一行文字便能得到想的图片,但 AI 生成的图像有时候并不那么完美。来自谷、以色列理工学院、魏茨曼科研究所的研究者介绍了一种基扩散模型的真实图像编辑方法 ——Imagic,只用文字就能实现真实照片的 PS。例如,我们可以改变一个人的修鞈势构图同时保留其原始特征,或我想让一只站立的狗坐下,让只鸟展开翅膀。论文链接:https://arxiv.org/ abs / 2210.09276项目地址:https://imagic-editing.github.io/视频讲解:https://youtu.be/ gbpPQ5kVJhM短篇分析:https://www.louisbouchard.ai/ imagic/eDiffi:更高品质的文本图像合成模型 DALL・E 和 Stable Diffusion 更强的图像合成模型来了!这就英伟达的 eDiffi,它可以更准确地生成更高品质的图,此外加入画笔模具,可以为的作品增加更多创造性和灵活。论文链接:https://arxiv.org/ abs / 2211.01324项目地址:https://deepimagination.cc/ eDiff-I/视频讲解:https://youtu.be/ grwp-ht_ixo短篇分析:https://www.louisbouchard.ai/ ediffi/Infinite Nature:从单幅图像中学习自然场景的无限视图生成你有有想过,随手拍一张照片然后像打开一扇门一样飞进图片里?来自谷歌和康奈尔大学的学将这一想象变为了现实,这就 InfiniteNature-Zero,他可从单幅图像中生成无限制的自然土蝼景视图论文链接:https://arxiv.org/ abs / 2207.11148项目地址:https://infinite-nature.github.io/视频讲解:https://youtu.be/ FQzGhukV-l0短篇分析:https://www.louisbouchard.ai/ infinitenature-zeroGalactica:用于科学的大语言模型Meta 开发的 Galactica 是一种大型语言模型,其大小与 GPT-3 相当,但它擅长的领域是科学知识。该模型可编写剡山府皮书、新闻评论、维基百科页和代码,它还知道如何引用以如何编写方程式。这对人工智和科学来说是一件大事。论文接:https://arxiv.org/ abs / 2211.09085视频讲解:https://youtu.be/ 2GfxkCWWzLU短篇分析:https://www.louisbouchard.ai/ galactica/RAD-NeRF:基于音频空间分解的实时人像合模型自从 DeepFake 和 NeRF 的出现,AI 换脸似乎已经是司空见惯了,有个问题,AI 换的脸有时会因为对不上嘴型而露馅。RAD-NeRF 的出现可以解决这一问题,它可以对视频中伯服出的说话者进行实时的人像合成此外还支持自定义头像。论文接:https://arxiv.org/ abs / 2211.12368项目地址:https://me.kiui.moe/ radnerf/ChatGPT:为对话优化的语言模型2022 年度 AI 的重磅作品怎么能少了 ChatGPT,这个已经火遍全网并已经被网友开发出写小黄、敲代码等各种应用的万能模,如果你还不了解它,那就快看看!视频讲解:https://youtu.be/ AsFgn8vU-tQ短篇分析:https://www.louisbouchard.ai/ chatgpt/可直接用于生产使用的视频人螐渠 re-aging虽然当下计算机视觉模型可以对人脸的年锡山进行生、风格迁移等,但这也只是看来炫酷,在实际应用中却几乎作用,现有的技术通常存在着部特征丢失、分辨率低和在后视频帧中结果不稳定的问题,往需要人工二次编辑。最近迪尼发布了第一个可实用的、完自动化的、可用于生产使用的频图像中 re-age 人脸的方法 FRAN(Face Re-Aging Network),正式宣告电影中靠化妆师改变演员年龄视觉效果的技落幕。论文链接:https://dl.acm.org/ doi / pdf / 10.1145/3550454.3555520项目地址:https://studios.disneyresearch.com/ 2022/11/30 / production-ready-face-re-aging-for-visual-effects/视频讲解:https://youtu.be/ WC03N0NFfwk短篇分析:https://www.louisbouchard.ai/ disney-re-age/参考资料:https://www.louisbouchard.ai/2022-ai-recap/本文来自微信公众号:新智元 (ID:AI_era?
IT之家 1 月 6 日消息,据联想官方消宣山,联想今日海外布的 ThinkBook 16p 新品笔记本的额头处可安装磁吸式模块竹山配件,如高分辨率摄头、补光灯以及 LTE 模块。官方表示,这些磁吸配件采用了想自研的通信协议,可满足大蜂合公场景下的用户多元需求。屏幕面,ThinkBook 16p Gen 4 配备了 3.2K 120 Hz mini-LED 屏,覆盖 100% DCI-P3 色域,还可选 2.5K 60 Hz IPS 显示屏,覆盖 100% sRGB 色域。配置方面,这款笔记本搭载了 13 代酷睿 H 系列处理器,最高可选酷睿 i9,显卡最高可选 RTX 4060,内存可选 16 GB DDR5,笔记本内置双 M.2 插槽。IT之家了解到,联想 ThinkBook 16p Gen 4 将于 2023 年 6 月上市,起价为 1399 欧元(约 10157 元人民币)。
