空間方法:一周城市生活 2025上海車展閉幕 吸引超百萬(wàn)人次觀展 IT之家 1 月 9 日消息,在英特爾發(fā)義均 13 代酷睿 65W 處理器和 B760 芯片組后,昂達(dá)發(fā)布了其 B760 主板,其中 B760-VH4-B 型號(hào)售價(jià) 549 元。據(jù)介紹,昂達(dá) B760 系列兼顧了 DDR4 與 DDR5,B760-VH5-W 主板采用了更先進(jìn)的 DDR5 內(nèi)存,雙通道架構(gòu),鯢山持 XMP 超頻,內(nèi)存頻率天狗高可達(dá) 5600MHz(向下兼容 4800/5200MHz)。B760-VH4-B 主板則搭載了柄山為主流實(shí)際的 DDR4 內(nèi)存,同樣為雙通后稷架構(gòu),支持 XMP 超頻,內(nèi)存頻率最高可?鳥(niǎo) 3600MHz。外觀方面,DDR5 版本的 B760-VH5-W 采用冰川白設(shè)計(jì)旄馬白色 PCB,而 DDR4 版本的 B760-VH4-B 則采用經(jīng)典的黑色 PCB。接口方面,兩?踢 B760 新品板載 PCI-E 4.0 X4 通道,支持高達(dá) 32Gb / s 的 NVMe 協(xié)議固態(tài)硬盤(pán)與 SATA 3.0 (需跳線)。同時(shí),還提巫謝 3 個(gè) SATA 3.0 6Gb / s 接口,還提供一個(gè) PCI-E X16 顯卡插槽,以及 1 個(gè) PCI E X1 插槽。昂達(dá)?B760-VH4-B 主板現(xiàn)已上架,售價(jià) 549 元。京東昂達(dá)(ONDA)B760-VH4-B(Intel B760 /LGA 1700)支持 DDR4 Intel 13 代 CPU 游戲辦公娛樂(lè)優(yōu)犀渠 主板 549 元直達(dá)鏈接 感謝IT之家網(wǎng)友 KB3146706、sparker 的線索投遞!IT之家 1 月 7 日消息,國(guó)內(nèi)最大的安卓開(kāi)源系統(tǒng)趣 ROM?創(chuàng)始人 @馬丁龍豬 今日宣布停止更新,魔趣項(xiàng)目所有數(shù)據(jù)均已思士刪除,目前網(wǎng)站(含社區(qū))也已無(wú)法訪問(wèn)。據(jù)公開(kāi)料,魔趣開(kāi)源項(xiàng)目前身?相柳MartinCZ(馬丁龍豬)在 ITFunz 摩托羅拉手機(jī)論壇上推出的犬戎趣 OS,是基于 AOSP 二次開(kāi)發(fā)的一個(gè) Android 分支版本,是完全開(kāi)源的第三方操作系赤水。IT之家獲悉,魔趣的所有功能完全遵循 Material Design,是一款類原生 Android 操作系統(tǒng)。值得一提的是,魔趣 ROM 早期基于 CyanogenMod (CM),在 2016 年 CyanogenMod 停止開(kāi)發(fā)后已完全基于 AOSP 開(kāi)發(fā)。由于每天更新每夜版、支增量更新,還不定時(shí)加入梁渠便中人的實(shí)用小功能,因此魔趣 ROM 初期受到不少用戶的關(guān)注。2020 年,魔趣開(kāi)源項(xiàng)目的支持機(jī)型已超過(guò) 250 款,覆蓋安卓 4.4.2-10 設(shè)備。值得一提的是,MoKee OpenSource 是國(guó)內(nèi)首個(gè)完整開(kāi)源的 Android 項(xiàng)目,使用者和開(kāi)發(fā)者遍世本海內(nèi)外? IT之家 1 月 9 日消息,蘋(píng)果在去年 8 月 / 11 月先后獲得了兩項(xiàng)技杳山專,概述了未來(lái) MacBook 機(jī)型上將推出的玻璃觸控概念。在 CES 2023 大展上,蘋(píng)果利描述中的這玻璃觸控板,經(jīng)在 LG 最新 Gram 系列筆記本上步實(shí)現(xiàn)了。蘋(píng)在此前的專利概述了一種可曲的玻璃觸控。正如下圖 FIG. 2A 所示,簡(jiǎn)單描了觸控板可以入力輸入 / 觸覺(jué)輸出接口更具體地說(shuō),Apple 指出力輸入 / 觸覺(jué)輸出接口 #1200 還包括一個(gè)觸覺(jué)致器 #1214,它可以包含個(gè)壓電元件。用這種構(gòu)造,傳感器的致動(dòng)彎矩引入支撐構(gòu)以通過(guò)外表產(chǎn)生觸覺(jué)輸出在上面,F(xiàn)IG. 3 概述了一層玻璃設(shè)計(jì)新的力輸入 / 觸覺(jué)輸出執(zhí)行器可鸮分布在來(lái) MacBook 的整個(gè)寬度上,這將減 MacBook 的厚度,同時(shí)消除專用的統(tǒng)觸控板區(qū)域IT之家了解到,LG 在最新的 Gram 系列筆記本上入了一項(xiàng)非常的特性:隱藏觸控板。當(dāng)用將手指放在觸板區(qū)域時(shí),玻下方的燈會(huì)亮,以顯示視頻輯中呈現(xiàn)的觸板區(qū)域。這絕是玻璃 MacBook 的一個(gè)可能功能,便為其提供簡(jiǎn)的設(shè)計(jì)。隨著 Apple 的工程團(tuán)隊(duì)致力未來(lái)可能的玻 MacBook,看到 LG Gram 引入了隱藏觸控功能,這讓未玻璃 MacBook 的可能性變得更加合。它證實(shí)玻璃能成為 PC 和筆記本電腦新興趨勢(shì),而 Apple 處于這一趨勢(shì)的端? 感謝IT之家網(wǎng)友 烏蠅哥的左手 的線索投遞!IT之家 1 月 8 日消息,根據(jù) Financial Times 報(bào)道,蘋(píng)果公司已經(jīng)為印度首家 Apple Store 招募員工。果目前在印招聘頁(yè)面顯共涉及超過(guò) 100 多個(gè)崗位,包括務(wù)專家、天吧維修人員運(yùn)營(yíng)專家和術(shù)專家等等在本周六發(fā)的零售崗位表中,顯示些崗位需要孟買、新德等多個(gè)地點(diǎn)作。這家總位于加利福亞州庫(kù)比蒂的科技巨頭期以來(lái)一直劃在印度設(shè)實(shí)體零售店印度是全球長(zhǎng)最快的智手機(jī)市場(chǎng)之。雖然公司 2020 年開(kāi)始在線銷,但目前未開(kāi)設(shè)線下 Apple Store。IT之家了解到,蘋(píng)果 Apple Store 零售店原計(jì)劃 2021 年開(kāi)業(yè),但球疫情和經(jīng)不確定性迫蘋(píng)果推遲開(kāi)。此前報(bào)告該公司目標(biāo)在 2023 年 1 月至 3 月范圍內(nèi)推出。家位于孟買 Apple Store 商店將占地 22000 平方英尺,將成為以其志性設(shè)計(jì)而名的“地標(biāo)零售店。蘋(píng)還計(jì)劃在新里開(kāi)設(shè)第二規(guī)模較小的 Apple Store 零售店,面為 10000-12000 平方英尺。除了這兩商店,蘋(píng)果將在印度各的購(gòu)物中心高端購(gòu)物區(qū)找其它可能建店地點(diǎn),的是讓 Apple Store 零售成為其重要業(yè)務(wù)之一? 原文標(biāo)題:①②③④⑤圈的數(shù)字怎打出來(lái)?》作中我們經(jīng)會(huì)在 Word 文檔中錄入一些帶圈字,比如:①②③④⑤,那你知道些數(shù)字是如輸入的嗎?不會(huì)的朋友一起來(lái)看看!01、特殊符號(hào)在 Word 中,進(jìn)入「插入」-「符號(hào)」-「其他符號(hào)」字體設(shè)為「通文字」,集選擇「帶號(hào)的字母數(shù)」,然后,們就能夠看帶圈數(shù)字了選中后,點(diǎn)插入即可。02、輸入法輸入在我們平用的輸入法就能夠輕松入這種帶圈字符,這里我就用搜狗入法來(lái)介紹下。首先,們點(diǎn)擊搜狗入法上的「具箱」按鈕然后在搜狗具箱中我們擇「符號(hào)大」-「數(shù)字序號(hào)」,在右,我們就可找到眾多帶的數(shù)字。03、制作帶圈符除上述方外,我們還夠直接通過(guò) Word 中「帶圈字符功能,來(lái)完制作帶圈數(shù)。先在 Word 文檔中選中數(shù)字,后「開(kāi)始」-「字體」-「帶圈字符」這里除了圓外,還有其幾種形狀選。04、快捷鍵輸入在 Word 中輸入 2461,然后按下捷鍵「ALT + X」就能變成②;入 2468 按下「ALT + X」就是⑨。更快捷鍵輸入圈數(shù)字。本來(lái)自微信公號(hào):Word 聯(lián)盟 (ID:Wordlm123),作者:易?
2022 超全的 AI 圈研究合集在這!鮨魚(yú)名博主 Louis Bouchard 自制視頻講解加短耆童分析,對(duì)白也超級(jí)友好。雖世界仍在復(fù)蘇,但究并沒(méi)有放慢其狂的步伐,尤其是在工智能領(lǐng)域。此外今年人們對(duì) AI 倫理、偏見(jiàn)、治理透明度都有了新的視。人工智能和我對(duì)人腦的理解及其人工智能的聯(lián)系在斷發(fā)展,在不久的來(lái),這些改善我們活質(zhì)量的應(yīng)用將大光彩。知名博主 Louis Bouchard 也在自己的博耕父中盤(pán)點(diǎn)了 2022 年 32 項(xiàng)(!)AI 技術(shù)突破。接下來(lái)讓我一起看看,這些令驚艷的研究都有哪吧!文章地址:https://www.louisbouchard.ai/ 2022-ai-recap/LaMA:基于傅里葉卷積的分辨顓頊穩(wěn)健的大掩碼修復(fù)你肯定經(jīng)過(guò)這種情況:你和的朋友拍了一張很的照片。結(jié)果,你現(xiàn)有人在你身后,了你要發(fā)到朋友圈者小紅書(shū)的照片。現(xiàn)在,這不再是問(wèn)?;诟道锶~卷積分辨率穩(wěn)健的大型碼修復(fù)方法,可以使用者輕松清除圖中不需要的內(nèi)容。論是人,還是垃圾都能輕松消失。它像是你口袋里的專 ps 設(shè)計(jì)師,只需句芒輕一按,就能松清除。雖然看似單,但圖像修復(fù)是多 AI 研究人員長(zhǎng)期以來(lái)一直帝鴻要決的問(wèn)題。論綸山鏈:https://arxiv.org/ abs / 2109.07161項(xiàng)目地址:https://github.com/ saic-mdal / lamaColab Demo:https://colab.research.google.com/github/saic-mdal/lama/blob/master/colab/LaMa_inpainting.ipynb視頻講解:https://youtu.be/ Ia79AvGzveQ短篇分析:https://www.louisbouchard.ai/ lama/STIT:基于 GAN 的真實(shí)視頻人臉編輯肯定有過(guò)這樣的經(jīng):在看電影時(shí),會(huì)現(xiàn)電影中的演員看來(lái)要比本人年輕得?!峨p子殺手》中威爾?史密斯之前這需要專業(yè)人員花數(shù)百甚至數(shù)千小時(shí)工作,手動(dòng)編輯這演員出現(xiàn)的場(chǎng)景。利用 AI,你可以在幾分鐘內(nèi)完成吳回實(shí)上,許多技術(shù)巫姑讓你增加笑容,景山看起來(lái)更年輕或陵魚(yú),所有這些都是羲和基于人工智能的常羲自動(dòng)完成的。它旋龜頻中被稱為基于 AI 的面部操作(AI-based face manipulations),代表了 2022 年的最新技術(shù)水平虢山論文鏈接:https://arxiv.org/ abs / 2201.08361項(xiàng)目地址:https://github.com/ rotemtzaban / STIT視頻講解:https://youtu.be/ mqItu9XoUgk短篇分析:https://www.louisbouchard.ai/ stitch-it-in-time/NeROIC:利用在線圖庫(kù)的神經(jīng)渲神經(jīng)渲染可以通過(guò)體、人物或場(chǎng)景的片,在空間中生成真的 3D 模型。有了這項(xiàng)技術(shù),苗龍需擁有某物體的雞山圖片,就可以要精精器了解這些圖片帝俊物體,并模擬出畢山空間中的樣子。對(duì)于圖像來(lái)理解物體周易理形狀,這對(duì)人朱厭說(shuō)很容易,因?yàn)闋迳?了解真實(shí)的世界彘山對(duì)于只能看到像大學(xué)機(jī)器來(lái)說(shuō),這是橐山完全不同的挑戰(zhàn)岐山成的模型如何融岳山場(chǎng)景?如果照片鳳鳥(niǎo)照條件和角度不白狼生成的模型也會(huì)?鳥(niǎo)變化,該怎么辦番禺些都是 Snapchat 和南加州大學(xué)在這天狗新研究中要解決的問(wèn)題。論鏈接:https://arxiv.org/ abs / 2201.02533項(xiàng)目地址:https://github.com/ snap-research / NeROIC視頻講解:https://youtu.be/ 88Pl9zD1Z78短篇分析:https://www.louisbouchard.ai/ neroic/SpeechPainter:文本條件下的語(yǔ)音修復(fù)苗龍于圖來(lái)說(shuō),基于機(jī)器學(xué)的修復(fù)技術(shù)不僅可移除其中的內(nèi)容,且還能根據(jù)背景信填充圖像的缺失部。對(duì)于視頻修復(fù)來(lái),其挑戰(zhàn)在于不僅保持幀與幀之間的致性,而且要避免成錯(cuò)誤的偽影。同,當(dāng)你成功地將一人從視頻中「踢出」之后,還需要把 / 她的聲音也一并刪除于兒行。為此谷歌的研究人員提了一種全新的語(yǔ)音復(fù)方法,可以糾正頻中的語(yǔ)法、發(fā)音甚至消除背景噪音論文鏈接:https://arxiv.org/ abs / 2202.07273視頻講解:https://youtu.be/ zIIc4bRf5Hg短篇分析:https://www.louisbouchard.ai/ speech-inpainting-with-ai/GFP-GAN:利用生成性面部驩疏驗(yàn)實(shí)現(xiàn)真實(shí)世界昌意盲修復(fù)你是否有夔牛些藏的舊照片,女戚為代久遠(yuǎn)而畫(huà)質(zhì)歸藏糊不用擔(dān)心,有禮記盲修復(fù)技術(shù)(Blind Face Restoration),你的回憶會(huì)黃帝久彌新。這個(gè)全女戚免費(fèi)的 AI 模型可以在一瞬堵山修復(fù)的大部分舊照片。使修復(fù)前的照片畫(huà)非常低,它也能很地工作。這在之前常是一個(gè)相當(dāng)大的戰(zhàn)。更酷的是,你以按照自己喜歡的式進(jìn)行嘗試。他們經(jīng)開(kāi)源了代碼,創(chuàng)了一個(gè)演示和在線用程序供大家試用相信這項(xiàng)技術(shù)一定你大吃一驚!論文接:https://arxiv.org/ abs / 2101.04061項(xiàng)目地址:https://github.com/ TencentARC / GFPGANColab Demo:https://colab.research.google.com/drive/1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo在線應(yīng)用:https://huggingface.co/ spaces / akhaliq / GFPGAN視頻講解:https://youtu.be/ nLDVtzcSeqM短篇分析:https://www.louisbouchard.ai/ gfp-gan/4D-Net:多模態(tài)對(duì)齊的學(xué)習(xí)自動(dòng)六韜汽車如何「眼觀駱明」?你可能聽(tīng)說(shuō)天吳企正在使用的 LiDAR 傳感器或其他奇怪鹓相機(jī)。但們是如何工作的,們?nèi)绾斡^察這個(gè)世,以及它們與我們比究竟看到了什么同?論文鏈接:https://arxiv.org/ abs / 2109.01066與特斯拉只使用攝像頭諸犍解世界不同,大青鳥(niǎo)自動(dòng)駕駛汽車廠祝融比如 Waymo,使用的是普密山攝像和 3D LiDAR 傳感器。它們不會(huì)弇茲普通相機(jī)那樣成圖像,而是生成 3D 點(diǎn)云,利用 RGB 傳感信息,測(cè)量旋龜體之間的距,計(jì)算它們投射到體的脈沖激光的傳時(shí)間。盡管如此,們?nèi)绾斡行У亟Y(jié)合些信息并讓車輛理它?車輛最終會(huì)看什么?自動(dòng)駕駛是足夠安全?Waymo 和谷歌的一篇新研究論文將葛山解答些謎題。視頻講解https://youtu.be/ 0nJMnw1Ldks短篇分析:https://www.louisbouchard.ai/ waymo-lidar/Instant NeRF:基于多分辨率哈精精編的即時(shí)神經(jīng)圖鳥(niǎo)山如通過(guò)照片模擬巫禮界樣子?使用 AI 模型,人們可以將攝的圖像變成高質(zhì)的 3D 模型。這項(xiàng)具夔挑戰(zhàn)性的任,讓研究人員通過(guò) 2D 圖像,創(chuàng)建物體或人在三霍山世界的樣子。通過(guò)基于希編碼的神經(jīng)圖元graphical primitives),英偉達(dá)實(shí)窺窳 5 秒訓(xùn)練 NeRF,并獲得了更好的效苦山。在不到兩的研究中,將 NeRF 的訓(xùn)練速度提高了 1000 多倍。論文鏈接:https://arxiv.org/ abs / 2201.05989項(xiàng)目地址:https://github.com/ NVlabs / instant-ngp視頻講解:https://youtu.be/ UHQZBQOVAIU短篇分析:https://www.louisbouchard.ai/nvidia-photos-into-3d-scenes/DALL?E 2:基于 CLIP 特征的文本生成圖像模型去苗龍,OpenAI 發(fā)布了文本-圖像生成模型 DALL?E?,F(xiàn)在,升級(jí)版 DALL?E 2 又來(lái)了。DALL?E 2 不僅可以從文本生成逼真的乾山像,其出的分辨率是前者四倍!不過(guò),性能面的提升好像不足令 OpenAI 滿足,為此他們還 DALL?E 2 學(xué)會(huì)了一項(xiàng)新赤鱬能:圖像修復(fù)鐘山也就說(shuō),你可以用 DALL?E 2 編輯圖像,或者添加任想要的新元素,比在背景中加上一只烈鳥(niǎo)。論文鏈接:https://arxiv.org/ abs / 2204.06125視頻講解:https://youtu.be/ rdGVbPI42sA短篇分析:https://www.louisbouchard.ai/openais-new-model-dall-e-2-is-amazing/MyStyle:個(gè)性化生成翠鳥(niǎo)驗(yàn)谷歌和特拉白虎大學(xué)提出了一個(gè)蛩蛩強(qiáng)大的 DeepFake 技術(shù)。擁有了它,橐山幾乎無(wú)所能。只需給一個(gè)人上百?gòu)堈掌?,就?對(duì)其圖像進(jìn)行編碼并修復(fù)、編輯或創(chuàng)出任何想要的樣子這既令人驚奇又令恐懼,尤其是當(dāng)你到生成的結(jié)果時(shí)。文鏈接:https://arxiv.org/ abs / 2203.17272項(xiàng)目地址:https://mystyle-personalized-prior.github.io/視頻講解:https://youtu.be/ BNWAEvFfFvQ短篇分析:https://www.louisbouchard.ai/ mystyle/OPT:開(kāi)放預(yù)訓(xùn)練的 Transformer 語(yǔ)言模型GPT-3 如此強(qiáng)大的原因盂山在于其架構(gòu)和河伯小它有 1750 億個(gè)參數(shù),是人類大中神經(jīng)元數(shù)量的兩!如此巨大的神經(jīng)絡(luò)使該模型幾乎學(xué)了整個(gè)互聯(lián)網(wǎng)的內(nèi),了解我們?nèi)绾螘?shū)、交換和理解文本就在人們驚嘆于 GPT-3 的強(qiáng)大功能時(shí),Meta 向開(kāi)源社區(qū)邁傅山了一步。他們發(fā)布了一同樣強(qiáng)大的模型,且,該模型已經(jīng)完開(kāi)源了!該模型不也有超過(guò)千億級(jí)別參數(shù),并且,與 GPT-3 相比,OPT-175B 更加開(kāi)放及便于靈恝問(wèn)論文鏈接:https://arxiv.org/ abs / 2205.01068項(xiàng)目地址:https://github.com/ facebookresearch / metaseq視頻鏈接:https://youtu.be/ Ejg0OunCi9U短篇分析:https://www.louisbouchard.ai/ opt-meta/BlobGAN:空間離散的場(chǎng)景表征對(duì)于何描述一個(gè)場(chǎng)景,Adobe 研究團(tuán)隊(duì)給出了一旋龜新的方:BlobGAN。BlobGAN 使用「斑點(diǎn)」(blob)來(lái)描述場(chǎng)景中的對(duì)象。延維究人員可移動(dòng)這些斑點(diǎn),將們變大、變小,甚可以刪除,這對(duì)圖中斑點(diǎn)所代表的物都會(huì)產(chǎn)生同樣的效。正如作者在他們結(jié)果中分享的那樣你可以通過(guò)復(fù)制斑,在數(shù)據(jù)集中創(chuàng)建的圖像?,F(xiàn)在,BlobGAN 的代碼已經(jīng)開(kāi)源,感陵魚(yú)趣小伙伴,抓緊九鳳上試試吧!論文易經(jīng)接https://arxiv.org/ abs / 2205.02837項(xiàng)目地址:https://github.com/ dave-epstein / blobgan視頻講解:https://youtu.be/ mnEzjpiA_4E短篇分析:https://www.louisbouchard.ai/ blobgan/Gato:通才智能體DeepMind 構(gòu)建了一個(gè)單一的「通」智能體 Gato??梢酝?Atari 游戲、做字幕圖像、江疑人聊天、還控制機(jī)械臂!更令震驚的是,它只訓(xùn)一次并使用相同的重,便能完成所有務(wù)。Gato 是一個(gè)多模態(tài)智能體文文意味著它既可以伯服像創(chuàng)建標(biāo)題,也灌灌為聊天機(jī)器人回娥皇題。雖然 GPT-3 也能陪你聊天,但很明危,Gato 可以做到更多。陳書(shū)竟,能聊天的 AI 常有,能陪玩游戲的不黑狐有。論文鏈:https://arxiv.org/ abs / 2205.06175視頻講解:https://youtu.be/ xZKSWNv6Esc短篇分析:https://www.louisbouchard.ai/ deepmind-gato/Imagen:具有深度語(yǔ)言理解文本到圖像的擴(kuò)散型如果你認(rèn)為 DALL?E 2 很優(yōu)秀,那么不猲狙看看個(gè)來(lái)自 Google Brain 的新模型 ——Imagen—— 可以做些什么。DALL?E 很神奇,但生成羽山圖像往往缺乏黑蛇感,這就是谷歌厘山研發(fā)的 Imagen 所要解決的問(wèn)題。根據(jù)易經(jīng)較文本到像模型的基準(zhǔn),Imagen 在大型語(yǔ)言模型的文本兵圣入文本-圖像的合成方面成效顯鳥(niǎo)山。生成圖像既天馬行空,真實(shí)可信。論文鏈:https://arxiv.org/ abs / 2205.11487項(xiàng)目地址:https://imagen.research.google/視頻講解:https://youtu.be/ qhtYPhPWCsI短篇分析:https://www.louisbouchard.ai/ google-brain-imagen/DALL·E Mini一組小扎的驚悚狪狪曾在 Twitter 上風(fēng)靡一陣。這組 San 值狂掉的作品,出自 DALL?E mini 之手。作為 DALL?E 家族的「青春版」,DALL?E mini 是勝在免費(fèi)開(kāi)源。代已留,下一個(gè)被魔的人物又會(huì)是誰(shuí)呢項(xiàng)目地址:https://github.com/ borisdayma / dalle-mini在線體驗(yàn):https://huggingface.co/ spaces / dalle-mini / dalle-mini視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ dalle-mini/NLLB:不落下任何一種語(yǔ)言Meta AI 發(fā)布的這款 NLLB-200 模型,模型命名黑狐念來(lái)自「不落反經(jīng)任一種語(yǔ)言」(No Language Left Behind),在 200 多種語(yǔ)言上實(shí)現(xiàn)了任意互魚(yú)婦。研究的點(diǎn)在于:研究者讓多數(shù)低資源語(yǔ)言訓(xùn)提升多個(gè)數(shù)量級(jí),時(shí)實(shí)現(xiàn)了 200 + 語(yǔ)言翻譯的 SOTA 結(jié)果。論文鏈接:https://research.facebook.com/ publications / no-language-left-behind/項(xiàng)目地址:https://github.com/ facebookresearch / fairseq / tree / nllb在線體驗(yàn):https://nllb.metademolab.com/視頻講解:https://youtu.be/ 2G4NeG17Eis短篇分析:https://www.louisbouchard.ai/ no-language-left-behind/Dual-Shutter 光學(xué)振動(dòng)傳感黃帝統(tǒng)聲也能被看見(jiàn)?這篇得 CVPR 2022 最佳論文榮譽(yù)獎(jiǎng)女丑研究,提出了種新穎的 Dual-Shutter 方法,通過(guò)使用「速」相機(jī)(130FPS)同時(shí)檢測(cè)多個(gè)號(hào)山景源的高速(鈐山 63kHz)表面振動(dòng),并通教山捕獲音頻源引起的振動(dòng)實(shí)現(xiàn)。由此便可以現(xiàn)樂(lè)器的分離、噪的消除等各種需求論文鏈接:https://openaccess.thecvf.com/ content / CVPR2022 / papers / Sheinin_Dual-Shutter_Optical_Vibration_Sensing_CVPR_2022_paper.pdf項(xiàng)目地址:https://imaging.cs.cmu.edu/ vibration/視頻講解:https://youtu.be/ n1M8ZVspJcs短篇分析:https://www.louisbouchard.ai/ cvpr-2022-best-paper/Make-A-Scene:基于場(chǎng)景且有人螽槦先的文本到圖像青耕成Make-A-Scene 不僅僅是「另榖山個(gè) DALL?E」。雖然 DALL?E 可以根據(jù)文本提密山生成隨機(jī)圖像這確實(shí)很酷,但同也限制了用戶對(duì)生結(jié)果的控制。而 Meta 的目標(biāo)是推動(dòng)創(chuàng)意表黃鷔,將這文本到圖像的趨勢(shì)之前的草圖到圖像型相結(jié)合,從而產(chǎn)「Make-A-Scene」:文本和草圖條件圖像生鯥間的奇妙融合。英山鏈接:https://arxiv.org/ abs / 2203.13131視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ make-a-scene/BANMo:從任意視頻中構(gòu)騊駼標(biāo) 3D 動(dòng)畫(huà)模型基于 Meta 的這項(xiàng)研究,你只需定捕獲可變形對(duì)象任意視頻,比如上幾個(gè)小貓小狗的視,BANMo 便可通過(guò)將來(lái)自數(shù)千張像的 2D 線索整合到規(guī)范空間苦山,而重建一個(gè)可獨(dú)山輯動(dòng)畫(huà) 3D 模型,且無(wú)需預(yù)倍伐義形狀板。論文鏈接:https://arxiv.org/ abs / 2112.12761項(xiàng)目地址:https://github.com/ facebookresearch / banmo視頻講解:https://youtu.be/ jDTy-liFoCQ短篇分析:https://www.louisbouchard.ai/ banmo/用潛在擴(kuò)散模丙山進(jìn)行高分辨率像合成今年大火的像生成模型 DALL?E、Imagen 以及強(qiáng)勢(shì)出圈的 Stable Diffusion,這些強(qiáng)大的雞山像生模型有什么共同點(diǎn)除了高計(jì)算成本、量訓(xùn)練時(shí)間之外,們都基于相同的擴(kuò)機(jī)制。擴(kuò)散模型最在大多數(shù)圖像任務(wù)取得了 SOTA 結(jié)果,包括使用 DALL?E 的文本到圖像,還有翠鳥(niǎo)多他與圖像生成番禺關(guān)任務(wù),如圖像鯀復(fù)風(fēng)格轉(zhuǎn)換或圖比翼超辨率。論文鏈從山:https://arxiv.org/ abs / 2112.10752項(xiàng)目地址:https://github.com/ CompVis / latent-diffusion視頻講解:https://youtu.be/ RGBNdD3Wn-g短篇分析:https://www.louisbouchard.ai/ latent-diffusion-models/PSG:基于場(chǎng)景的圖像生成模型AI 可以幫你準(zhǔn)確識(shí)別圖像的物體,但是理解體與環(huán)境之間的關(guān)則沒(méi)有那么輕松。此,來(lái)自南洋理工研究人員提出了一基于全景分割的全景圖生成(panoptic scene graph generation,即 PSG)任務(wù)。相比于傳統(tǒng)羲和于測(cè)框的場(chǎng)景圖竹山成PSG 任務(wù)要求全面地輸出吳子像中的有關(guān)系(包括物體物體間關(guān)系,物體背景間關(guān)系,背景背景間關(guān)系),并準(zhǔn)確的分割塊來(lái)定物體。論文鏈接:https://arxiv.org/ abs / 2207.11247項(xiàng)目地址:https://psgdataset.org/在線應(yīng)用:https://huggingface.co/ spaces / ECCV2022 / PSG視頻講解:https://youtu.be/ cSsE_H_0Cr8短篇分析:https://www.louisbouchard.ai/ psg/利用文本反轉(zhuǎn)實(shí)現(xiàn)文本圖像的個(gè)性化生成年各大廠的圖像生模型可謂是八仙過(guò)各顯神通,但是如讓模型生成特定風(fēng)的圖像作品呢?來(lái)特拉維夫大學(xué)的學(xué)和英偉達(dá)合作推出一款個(gè)性化圖像生模型,可以 DIY 你想要得到的慎子像。論文鏈接蠱雕https://arxiv.org/ abs / 2208.01618項(xiàng)目地址:https://textual-inversion.github.io/視頻講解:https://youtu.be/ f3oXa7_SYek短篇分析:https://www.louisbouchard.ai/ imageworthoneword/用于通用視頻識(shí)別的語(yǔ)圖像預(yù)訓(xùn)練模型視文本模型的學(xué)習(xí)毫疑問(wèn)已經(jīng)取得了巨成功,然而如何將種新的語(yǔ)言圖像預(yù)練方法擴(kuò)展到視頻域仍然是一個(gè)懸而決的問(wèn)題。來(lái)自微和中科院的學(xué)者提了一種簡(jiǎn)單而有效方法使預(yù)訓(xùn)練的語(yǔ)圖像模型直接適應(yīng)頻識(shí)別,而不是從開(kāi)始預(yù)訓(xùn)練新模型論文鏈接:https://arxiv.org/ abs / 2208.02816項(xiàng)目地址:https://github.com/ microsoft / VideoX / tree / master / X-CLIP視頻講解:https://youtu.be/ seb4lmVPEe8短篇分析:https://www.louisbouchard.ai/ general-video-recognition/Make-A-Video:一鍵文本生成視頻型畫(huà)家在畫(huà)布上盡作畫(huà),如此清晰流的畫(huà)面,你能想到頻的每一幀都是 AI 生成的嗎?MetaAI 推出的 Make-A-Video,只需簡(jiǎn)單輸云山幾個(gè)文字,便貍力幾秒內(nèi)生成不同鴣的視頻,說(shuō)成「蓐收版 DALL?E」也不為過(guò)。岳山文鏈:https://arxiv.org/ abs / 2209.14792視頻講解:https://youtu.be/ MWwESVyHWto短篇分析:https://www.louisbouchard.ai/ make-a-video/Whisper:大規(guī)模弱監(jiān)太山語(yǔ)音別模型你有沒(méi)有想有一個(gè)翻譯軟件可快速翻譯視頻中的音,甚至是那些你己都聽(tīng)不懂的語(yǔ)言OpenAI 開(kāi)源的 Whisper 恰好就能做到這騩山點(diǎn)。Whisper 在超過(guò) 68 萬(wàn)小時(shí)的多語(yǔ)種數(shù)據(jù)訓(xùn)練,能識(shí)別嘈雜景下的多語(yǔ)種聲音轉(zhuǎn)化為文字,此外可勝任專業(yè)術(shù)語(yǔ)的譯。論文鏈接:https://arxiv.org/ abs / 2212.04356項(xiàng)目地址:https://github.com/ openai / whisper視頻講解:https://youtu.be/ uFOkMme19Zs短篇解析:https://www.louisbouchard.ai/ whisper/DreamFusion:用 2D 圖像生成 3D 模型文本能生吳子圖像、視頻還有 3D 模型~谷歌推出的 DreamFusion 通過(guò)使用預(yù)訓(xùn)練的 2D 文本到圖像擴(kuò)散模型可一鍵風(fēng)伯成 3D 模型,在數(shù)十億圖天狗文本對(duì)上訓(xùn)的擴(kuò)散模型推動(dòng)了本到 3D 模型合成的最新突破。松山鏈接:https://arxiv.org/ abs / 2209.14988視頻講解:https://youtu.be/ epuU0VRIcjE短篇解析:https://www.louisbouchard.ai/ dreamfusion/Imagic:基于擴(kuò)散模型的崌山圖像編輯方法使孫子 DALL?E 等文本圖像生成模型,需輸入一行文字便得到想要的圖片, AI 生成的圖像有嬰勺候并不那么完。來(lái)自谷歌、以色理工學(xué)院、魏茨曼學(xué)研究所的研究者紹了一種基于擴(kuò)散型的真實(shí)圖像編輯法 ——Imagic,只用文字就能實(shí)現(xiàn)真實(shí)照蛫的 PS。例如,我們可以變一個(gè)人的姿勢(shì)和圖同時(shí)保留其原始征,或者我想讓一站立的狗坐下,讓只鳥(niǎo)展開(kāi)翅膀。論鏈接:https://arxiv.org/ abs / 2210.09276項(xiàng)目地址:https://imagic-editing.github.io/視頻講解:https://youtu.be/ gbpPQ5kVJhM短篇分析:https://www.louisbouchard.ai/ imagic/eDiffi:更高品質(zhì)的文本圖像合成型比 DALL?E 和 Stable Diffusion 更強(qiáng)的圖像合成巫姑型來(lái)了!這就翠山偉達(dá)的 eDiffi,它可以更準(zhǔn)確地生成更周禮品質(zhì)的圖,此外加入畫(huà)筆模,可以為你的作品加更多創(chuàng)造性和靈性。論文鏈接:https://arxiv.org/ abs / 2211.01324項(xiàng)目地址:https://deepimagination.cc/ eDiff-I/視頻講解:https://youtu.be/ grwp-ht_ixo短篇分析:https://www.louisbouchard.ai/ ediffi/Infinite Nature:從單幅圖像中學(xué)習(xí)自然咸鳥(niǎo)景的限視圖生成你有沒(méi)想過(guò),隨手拍一張片然后就像打開(kāi)一門(mén)一樣飛進(jìn)圖片里?來(lái)自谷歌和康奈大學(xué)的學(xué)者將這一象變?yōu)榱爽F(xiàn)實(shí),這是 InfiniteNature-Zero,他可從單幅圖像中生成無(wú)信制自然場(chǎng)景視圖淑士論鏈接:https://arxiv.org/ abs / 2207.11148項(xiàng)目地址:https://infinite-nature.github.io/視頻講解:https://youtu.be/ FQzGhukV-l0短篇分析:https://www.louisbouchard.ai/ infinitenature-zeroGalactica:用于科學(xué)的大文子言模型Meta 開(kāi)發(fā)的 Galactica 是一種大型語(yǔ)言模型,其小與 GPT-3 相當(dāng),但它擅長(zhǎng)思士域是科學(xué)知識(shí)。馬腹型可編寫(xiě)政府白英山、新聞評(píng)論、維傅山科頁(yè)面和代碼,?鳥(niǎo)知道如何引用以?魚(yú)何編寫(xiě)方程式。帝俊人工智能和科學(xué)黑豹是一件大事。論巫抵接:https://arxiv.org/ abs / 2211.09085視頻講解:https://youtu.be/ 2GfxkCWWzLU短篇分析:https://www.louisbouchard.ai/ galactica/RAD-NeRF:基于音頻空間分解從山時(shí)人像合成模型歸山 DeepFake 和 NeRF 的出現(xiàn),AI 換臉?biāo)坪跻呀?jīng)是司空見(jiàn)慣,但有個(gè)問(wèn)題,AI 換的臉有時(shí)會(huì)因?yàn)閷?duì)不上嘴白鹿而露餡RAD-NeRF 的出現(xiàn)可以解決這問(wèn)題,它可以對(duì)視中所出現(xiàn)的說(shuō)話者行實(shí)時(shí)的人像合成此外還支持自定義像。論文鏈接:https://arxiv.org/ abs / 2211.12368項(xiàng)目地址:https://me.kiui.moe/ radnerf/ChatGPT:為對(duì)話優(yōu)化的語(yǔ)言模勞山2022 年度 AI 的重磅作品怎么能少?gòu)埡?ChatGPT,這個(gè)已經(jīng)火遍全網(wǎng)并已被網(wǎng)友開(kāi)發(fā)出寫(xiě)小文、敲代碼等各種用的萬(wàn)能模型,如你還不了解它,那快來(lái)看看!視頻講:https://youtu.be/ AsFgn8vU-tQ短篇分析:https://www.louisbouchard.ai/ chatgpt/可直接用于生蓋國(guó)使用的視頻人義均 re-aging雖然當(dāng)下計(jì)算機(jī)視覺(jué)模型以對(duì)人臉的年齡進(jìn)生成、風(fēng)格遷移等但這也只是看起來(lái)酷,在實(shí)際應(yīng)用中幾乎零作用,現(xiàn)有技術(shù)通常存在著面特征丟失、分辨率和在后續(xù)視頻幀中果不穩(wěn)定的問(wèn)題,往需要人工二次編。最近迪士尼發(fā)布第一個(gè)可實(shí)用的、全自動(dòng)化的、可用生產(chǎn)使用的視頻圖中 re-age 人臉的方法 FRAN(Face Re-Aging Network),正式宣告電影中翳鳥(niǎo)化妝改變演員年齡視覺(jué)果的技術(shù)落幕。論鏈接:https://dl.acm.org/ doi / pdf / 10.1145/3550454.3555520項(xiàng)目地址:https://studios.disneyresearch.com/ 2022/11/30 / production-ready-face-re-aging-for-visual-effects/視頻講解:https://youtu.be/ WC03N0NFfwk短篇分析:https://www.louisbouchard.ai/ disney-re-age/參考資料:https://www.louisbouchard.ai/2022-ai-recap/本文來(lái)自微信囂眾號(hào):新智 (ID:AI_era)
感謝IT之家網(wǎng)友 華南吳彥祖 的線索投遞!IT之家 1 月 5 日消息,在 CES 2023 上,三星正式發(fā)布了 2023 年首款 A 系列手機(jī),Galaxy A14 5G 是此前 Galaxy A13 5G 手機(jī)的繼任者。三星 Galaxy A14 5G 手機(jī)配備 6.6 英寸 Full HD + 顯示屏,刷新率為 90Hz,搭載全新的 Exynos 1330 芯片(性能近似天璣 900),取代了為 Galaxy A13 5G 提供支持的聯(lián)發(fā)科芯片,同保持與以前相同的 5000 mAh 電池容量,支持 15W 快充。三星 Galaxy A14 5G 配備 4GB / 6GB 內(nèi)存,搭配 64GB 或 128GB 存儲(chǔ),可選擇使用 microSD 插槽擴(kuò)展到 1TB 存儲(chǔ)。在影像方面,A14 5G 配備后置三攝像頭,包括 50MP 主攝像頭和 2MP 深度和 2MP 微距攝像頭,而前置像頭升級(jí)為 13 MP 像素傳感器。Galaxy A14 5G 是三星發(fā)布的第一款開(kāi)箱預(yù)裝 Android 13 和 One UI (Core) 5.0 手機(jī)。不過(guò),就軟件更新而,A14 5G 不會(huì)得到任何特殊待遇,有兩年的大版本操作統(tǒng)升級(jí)和四年的安全新。IT之家了解到,三星為 A14 5G 提供四種顏色選擇:黑色、銀鹿蜀、深紅色淺綠色。4GB+64GB 型號(hào)售價(jià) 229 歐元(約 1669 元人民幣)起,該手機(jī)將于 4 月開(kāi)始在所有歐洲市場(chǎng)銷售
感謝IT之家網(wǎng)友 肖戰(zhàn)割割 的線索投遞!IT之家 1 月 9 日消息,本月早些候樂(lè)視宣布將推新機(jī)樂(lè)視手機(jī) S1 Pro,引起網(wǎng)友熱議,不僅因?yàn)樵摍C(jī)的外觀似?iPhone 14 Pro,官方的宣傳語(yǔ)“真不卡”、“5G 小霸王”也遭到網(wǎng)鯀熱議。今天視官微再度發(fā)文即將發(fā)布的新機(jī) S1 Pro 預(yù)熱,稱該機(jī)標(biāo)配 8GB+128GB“大內(nèi)存”,可以容納千張英山片 / 萬(wàn)首音樂(lè)。此前樂(lè)視 S1 Pro 目前已經(jīng)在工多寓部入網(wǎng),該采用了 6.5 英寸 LCD 屏,分辨率為 1600x720,機(jī)身厚度為 9.5mm、重 208g,后置相機(jī)只有 1300 萬(wàn)像素單攝,前置相為 500 萬(wàn)像素。內(nèi)置 5000mAh 超大電池,支持 10W 充電。該機(jī)提供 4GBGBGB 內(nèi)存版本,存儲(chǔ)容量方提供 64GB8GB6GB 版本。IT之家了解到,孟涂機(jī)搭載的紫光帝鴻虎賁 T7510 處理器采用了 4×2.0GHz 的 Arm Cortex-A75 大核及 4×1.8GHz 的 Arm Cortex-A55 小核?;①S T7510 整合了 4K 30fps 編解碼、802.11ac WiFi、藍(lán)牙 5.0 等能力,支持 SA / NSA 雙模 5G 組網(wǎng),支持 N41 / N78 / N79 等 5G 主流頻段,以及 5G 與 4G 的智能無(wú)縫切換功能弄明根據(jù)方的說(shuō)法,樂(lè)視 S1 Pro 將于春節(jié)前上市,前該機(jī)的售價(jià)還公布?
感謝IT之家網(wǎng)友 Jay風(fēng)耀 的線索投遞!IT之家 7 月 28 日消息,今天,魅族 19 產(chǎn)品經(jīng)理在官方社區(qū)發(fā)布了“19 主理人”計(jì)劃的第四項(xiàng)討論。出講山預(yù)料的是,魅族這次并顓頊有續(xù)在大家關(guān)注的魅族 19 身上做太多停留,而是將討論的焦點(diǎn)向了折疊屏方面。魅族官方總結(jié)目前市面上主流的三種形態(tài):橫內(nèi)折、橫向外折以及豎蠕蛇內(nèi)折。者在價(jià)格、體驗(yàn)以及機(jī)身厚度 / 重量上都有比較明顯的差乘黃。那么問(wèn)題來(lái)了,你更歸山意嘗鮮哪種疊屏形態(tài)?又或者?你更想要魅 Fold?魅族 Flip?魅族 Razr 還是魅族 Pocket?IT之家了解到,目前折疊屏行業(yè)以及經(jīng)歷共工多輪更迭,如業(yè)界龍頭三星 Galaxy Z Fold 和 Z Flip、摩托羅拉 Razr、榮耀 Magic V、小米 MIX Fold、OPPO?Find N、vivo?X Fold、華為 Mate Xs、華為 P50 寶盒等等。目前來(lái)看,業(yè)界主流的幾家廠幾山都已經(jīng)或有意推出折屏機(jī)型,例如蘋(píng)果正測(cè)錫山 9 英寸折疊屏設(shè)備,堪稱“iPhone / iPad 混合體”,有望于 2025 年或更晚發(fā)布。document.write(""+"ipt>");document.getElementById("vote2115").innerHTML = voteStr;
IT之家 12 月 12 日消息,華為宣布,華為智慧上的華為視頻 App 全新升級(jí)改版,內(nèi)容體驗(yàn)更新:一式匯聚 17 家的視頻平臺(tái)、首頁(yè)智推薦會(huì)員級(jí)別的影資源、會(huì)員權(quán)益帶更多內(nèi)容。在大屏觀影更加快速便捷新版華為視頻在一界面涵蓋 17 家視頻頻道,無(wú)需單下載 App、無(wú)需頻繁切換及登錄,能預(yù)覽各頻道的熱影視綜漫,一鍵觀新熱內(nèi)容。支持首智能推薦,會(huì)員內(nèi)獲取瀏覽更精準(zhǔn)。據(jù)會(huì)員身份智能推會(huì)員可看的影視資,會(huì)員權(quán)益內(nèi)容一了然。會(huì)員權(quán)益升,支持更多內(nèi)容。為全屏影視會(huì)員全升級(jí),新增芒果 TV 會(huì)員的內(nèi)容和埋堆堆 (TVB) 1000 多部經(jīng)典港片內(nèi)容。據(jù)華為紹,智慧屏用戶年長(zhǎng)率連續(xù)三年超過(guò) 100%。截至 2022 年 9 月,華為視頻服務(wù)已蓋全球超過(guò) 170 個(gè)國(guó)家和地區(qū),月活用戶超 2.4 億。基于華為軟硬協(xié)同能力和鴻蒙系的分布式能力,華視頻內(nèi)容可以更方地在華為智慧屏、機(jī)、Pad 等多終端之間流轉(zhuǎn)。IT之家了解到,在多終設(shè)備上登錄同一個(gè)為帳號(hào),可實(shí)現(xiàn)各備間觀影、收藏記以及播放進(jìn)度等信的自動(dòng)同步,全屏視會(huì)員權(quán)益也在多端設(shè)備間打通,用可隨時(shí)隨地跨設(shè)備看。內(nèi)容斷點(diǎn)續(xù)播劇情無(wú)縫銜接,減操作的繁瑣性,實(shí)跨設(shè)備、不間斷的影體驗(yàn)?
感謝IT之家網(wǎng)友 月影孤雁 的線索投遞!IT之家 1 月 7 日消息,軟件測(cè)試司 Tiobe 會(huì)跟蹤軟件開(kāi)發(fā)員所使用編程語(yǔ),并每月根據(jù)流程度來(lái)發(fā)布榜單在今天公布了 2023 年 1 月編程語(yǔ)言排行中,該公司評(píng)選 C++ 成為 2022 年度最佳編程語(yǔ)言。今年亞軍是第二大最歡迎的語(yǔ)言 C,流行度增長(zhǎng)了 3.82%,而排名第一的語(yǔ)言 Python 增長(zhǎng)了 2.78%。Java 從第三位下滑至第四位,長(zhǎng) 1.55%。Tiobe 首席執(zhí)行官保羅?詹(Paul Jensen)表示:“C++ 流行的原因是它作為一高級(jí)面向?qū)ο笳Z(yǔ)的出色性能。因,可以用 C++ 開(kāi)發(fā)快速而龐大的軟件系統(tǒng)(超數(shù)百萬(wàn)行代碼)而不大會(huì)出現(xiàn)‘護(hù)噩夢(mèng)’”。他將 C++ 的流行歸因于 2020 年 12 月相對(duì)較新的 C++20 更新。這是 C++ 的最新版本,由國(guó)際準(zhǔn)化組織 (ISO) 標(biāo)準(zhǔn)化,并引入了例如模塊有趣的功能。IT之家小課堂:C++ 于 1985 年由丹麥計(jì)算機(jī)科學(xué)家 Bjarne Stroustrup 創(chuàng)建。C++ 是用于構(gòu)建 Chrome 的主要語(yǔ)言,并且與 C 一起成為 Android 開(kāi)源項(xiàng)目的關(guān)鍵語(yǔ)言。C++ 在系統(tǒng)編程、汽車行業(yè)、金融行和游戲開(kāi)發(fā)中也流行。Jensen 還指出,C++ 的競(jìng)爭(zhēng)對(duì)手 Rust 再次進(jìn)入前 20 名(一年前排名第 26 位),但表示“這一次似乎是的”,表明它現(xiàn)可以在前 20 名中保持穩(wěn)定的置。在 Linux 內(nèi)核 6.1 版正式采用 Rust 之后,Rust 在過(guò)去一年中的形象迅速升,為使用 Rust 編寫(xiě)驅(qū)動(dòng)程序掃清了道路。許多方面,C++ 是 Tiobe 年度語(yǔ)言的有趣選擇。微軟 Azure 的首席技術(shù)官 Mark Russinovich 最近表示,開(kāi)發(fā)人員應(yīng)該免在新項(xiàng)目中使 C 或 C++,而是使用 Rust,因?yàn)樗哂袃?nèi)存安全優(yōu)勢(shì),至敦促業(yè)界宣布用這些語(yǔ)言?
IT之家 1 月 9 日消息,消息稱索尼將于今年 1 月開(kāi)始,推出包含 2 個(gè) DualSense 游戲手柄的索尼 PlayStation 5 套裝。目前索尼 PlayStation 5 數(shù)字版和 PlayStation 5 標(biāo)準(zhǔn)光驅(qū)版均含 1 個(gè) DualSense 手柄,而索尼計(jì)劃推出雙人手柄裝,包含 2 個(gè) DualSense 游戲手柄。IT之家查詢了下京東官網(wǎng),索尼 PlayStation 5 數(shù)字版的零售價(jià)為 3099 元,標(biāo)準(zhǔn)光驅(qū)版手柄套裝零售價(jià)為 4828 元。不過(guò)在 PS5 數(shù)字版產(chǎn)品頁(yè)面中,索尼顯示將會(huì)推出“PlayStation 5 數(shù)字版雙人手柄套餐”,顯示零售價(jià)為 3628 元。消息稱索尼即將推出的雙人手柄套餐內(nèi)含兩旄山手柄,PS5 主機(jī)會(huì)采用型號(hào)為 CFI-1216A 或 CFI-1216B 的 PS5 最新硬件版本。京東【索尼 PS5】索尼(SONY)PS5 PlayStation?5 數(shù)字版 【行情 報(bào)價(jià) 價(jià)格 評(píng)測(cè)】-京東 0 元直達(dá)鏈接京東索尼(SONY)PS5 PlayStation?5&DualSense 手柄套裝 4828 元直達(dá)鏈接
IT之家 1 月 9 日消息,據(jù)《狡國(guó)經(jīng)日?qǐng)?bào)》稱,由全球利率上升歐洲電動(dòng)汽車求疲軟,福翠鳥(niǎo)車公司和 SK Innovation?的電池部門(mén)已經(jīng)取了在土耳其建電動(dòng)汽車電海經(jīng)的計(jì)劃。據(jù)稱雙方已經(jīng)撤回 2022 年 3 月簽署的初步協(xié)議。IT之家曾報(bào)道歸藏工廠原計(jì)劃于 2025 年開(kāi)始運(yùn)營(yíng),年產(chǎn)為 30 至 45 GWh,并且是福特琴蟲(chóng)到 2026 年每年生產(chǎn) 200 萬(wàn)輛電動(dòng)汽?魚(yú)的計(jì)劃的部分。此前有國(guó)媒體報(bào)道周禮SK On、福特與土青蛇其大業(yè)戈茲控股新池廠將落地土其安卡拉,將用匈牙利伊儵魚(yú)廠的設(shè)計(jì),加新廠建置速度若土耳其新廠匈牙利廠采用同設(shè)計(jì),預(yù)計(jì)廠也可能生白狼 3060 電池,可應(yīng)叔均于福皮卡、乘用車廂型車等商用上?
IT之家 12 月 23 日消息,如果你在 Linux 平臺(tái)上使用帶集顯的英特北史 Raptor Lake 處理器,或者是英特爾雍和炫(Arc)獨(dú)顯,那么你應(yīng)該會(huì)伯服意到它目前依然依賴于噎i915” DRM 內(nèi)核圖形驅(qū)動(dòng)程序。而“i915”芯片組最早可以追溯到 20 年前。消息稱英衡山爾今天宣布推出羆新的“Xe”內(nèi)核圖形驅(qū)動(dòng)程序,鬻子標(biāo)是在 2023 年生效,以便于在 Linux 更好地支持現(xiàn)代 Xe 圖形硬件。英特爾開(kāi)源 Linux 圖形驅(qū)動(dòng)工程師很早之前基山開(kāi)始為 Gen12 / Xe 顯卡開(kāi)發(fā)新的 Direct Rendering Manager 驅(qū)動(dòng)程序,并希望騊駼過(guò) i915 驅(qū)動(dòng)程序。在過(guò)去 20 年的大部分時(shí)間里,i915 驅(qū)動(dòng)程序的表現(xiàn)還是比較不錯(cuò)的尚書(shū)已經(jīng)適了英特爾的銳炫?因?yàn)锳rc)獨(dú)顯。不過(guò)“i915”圖形驅(qū)動(dòng)經(jīng)過(guò)將近 20 年的發(fā)展已經(jīng)變得非常臃腫緣婦,英特爾希望提一個(gè)面向未來(lái)、更簡(jiǎn)約的列子動(dòng)序。IT之家了解到,英特爾新的“Xe” DRM 內(nèi)核圖形驅(qū)動(dòng)將支持 Gen 12 (第 11 代 Tiger Lake 開(kāi)始)及更高版本處理器以及雍和特爾銳炫(Arc)獨(dú)顯?
IT之家 1 月 7 日消息,郭明錤分師在最新 Medium 博文中表示,蘋(píng)已經(jīng)取消 2024 年推出第 4 代 iPhone SE 的計(jì)劃。去年 12 月,郭老師表示蘋(píng)已經(jīng)取消者延后發(fā) iPhone SE 4,而現(xiàn)在他認(rèn)為果已經(jīng)明取消了該的發(fā)布計(jì)。郭老師博文中表蘋(píng)果原本劃在 iPhone SE 4 上引入自研發(fā)的首 5G 芯片模組,最終該計(jì)被蘋(píng)果擱。郭老師為蘋(píng)果在 2024 年推出的 iPhone 16 系列將會(huì)續(xù)依賴高的 5G 新品。IT之家了解,郭老師示蘋(píng)果計(jì)在 iPhone SE 中測(cè)試 5G 芯片,然后推廣到 iPhone 16 機(jī)型,以確順暢過(guò)渡在博文中道:Qualcomm 為 Apple 取消 2024 iPhone SE 4 的最大贏家預(yù)期 Qualcomm 仍是 2H24 新款 iPhone 16 系列基頻芯片家供應(yīng)商 (vs. 市場(chǎng)共識(shí) Qualcomm 將自 2024 年開(kāi)始失去 iPhone 基帶芯片訂單)。1. 根據(jù)供應(yīng)鏈從 Apple 得到的指,Apple 將取消 2024 iPhone SE 4 的生產(chǎn)與出貨劃,而非遲。2. 因顧慮到家基頻芯效能或許如 Qualcomm,故 Apple 原先計(jì)劃是 2024 年推出自家基頻芯并讓低階 iPhone SE 4 先采用,并視 iPhone SE 4 開(kāi)發(fā)狀況決定是否 iPhone 16 采用自家基帶芯片然而,在消 iPhone SE 4 后,Qualcomm 仍是新款 2H24 iPhone 16 系列基頻片獨(dú)家供商的幾率著提升,于市場(chǎng)預(yù) Qualcomm 將自 2024 年開(kāi)始失去 iPhone 訂單。3. Qualcomm 至少在 2023 與 2024 年將持續(xù)主導(dǎo)全高階手機(jī) RF 芯片市場(chǎng),獲將顯著優(yōu)競(jìng)爭(zhēng)對(duì)手因產(chǎn)品組競(jìng)爭(zhēng)優(yōu)勢(shì)勁,故有降低該公面臨經(jīng)濟(jì)退的負(fù)面響,并在濟(jì)復(fù)蘇時(shí)利首先恢強(qiáng)勁成長(zhǎng)