看人工智能如何發(fā)現(xiàn)夜空中最亮的星

作者: 2019年06月03日 來源:全球化工設(shè)備網(wǎng) 瀏覽量:
字號:T | T
尋找暗物質(zhì),機(jī)器比人的眼神好。近期《計(jì)算天體物理學(xué)和宇宙學(xué)》發(fā)表的一篇論文顯示,美國勞倫茲伯克利國家實(shí)驗(yàn)室(以下簡稱“伯克利實(shí)驗(yàn)室”)等機(jī)構(gòu)共同研制的深度學(xué)習(xí)AI框架,能夠探尋宇宙里暗物質(zhì)的跡象?! 〗?
尋找暗物質(zhì),機(jī)器比人的眼神好。近期《計(jì)算天體物理學(xué)和宇宙學(xué)》發(fā)表的一篇論文顯示,美國勞倫茲伯克利國家實(shí)驗(yàn)室(以下簡稱“伯克利實(shí)驗(yàn)室”)等機(jī)構(gòu)共同研制的深度學(xué)習(xí)AI框架,能夠探尋宇宙里暗物質(zhì)的跡象。

  近幾年,人工智能越來越多應(yīng)用于天文學(xué)研究。深度學(xué)習(xí)需要海量數(shù)據(jù),而天文學(xué)正是AI大顯身手的領(lǐng)域。機(jī)器可以替人類從茫茫大海里撈針,捕捉到新的恒星、新的地外行星甚至暗物質(zhì)。

  辨認(rèn)“引力透鏡”,AI立功了

  尋找“引力透鏡”是研究暗物質(zhì)分布的基本方法。巨大質(zhì)量的物體會(huì)像透鏡一樣扭曲路過的光線,找出這種扭曲就能捕捉到不發(fā)光的質(zhì)量物。

  論文顯示,伯克利實(shí)驗(yàn)室建立的深度學(xué)習(xí)AI框架CosmoGAN,可以分析引力透鏡與暗物質(zhì)的關(guān)聯(lián)。它可以創(chuàng)建高保真、弱引力透鏡收斂圖。

  曾幾何時(shí),尋找“引力透鏡”所需的模擬和數(shù)據(jù)處理很麻煩。20名科學(xué)家花費(fèi)了好幾個(gè)月的時(shí)間只能查看一小塊空間圖像。物理模擬需要數(shù)十億個(gè)計(jì)算小時(shí),占用數(shù)兆字節(jié)的磁盤空間。

  神經(jīng)網(wǎng)絡(luò)的進(jìn)步提供了機(jī)會(huì)。伯克利實(shí)驗(yàn)室領(lǐng)導(dǎo)的團(tuán)隊(duì)引入一種“生成性對抗網(wǎng)絡(luò)(GANs)”。研究者穆斯塔法說:“也有別的深度學(xué)習(xí)方法可以從許多圖像中得到收斂圖,但與競爭方法相比,GANs生成非常高分辨率的圖像,同時(shí)仍有神經(jīng)網(wǎng)絡(luò)的高效率?!?

  現(xiàn)在,天文學(xué)家可以用CosmoGAN分析大得多的天區(qū),速度也更快。

  CosmoGAN不是*取得進(jìn)展的天文學(xué)深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)。比如多倫多大學(xué)利用深度學(xué)習(xí)技術(shù)解析月球隕石坑的衛(wèi)星圖像,P8超級計(jì)算機(jī)的神經(jīng)網(wǎng)絡(luò)在僅僅幾個(gè)小時(shí)內(nèi)發(fā)現(xiàn)6000個(gè)新的隕石坑,是過去幾十年中人類發(fā)現(xiàn)隕石坑數(shù)量的2倍。伊利諾伊大學(xué)厄巴納-香檳分校利用深度學(xué)習(xí)來探測和分析黑洞碰撞的引力波。AI在天文學(xué)遍地開花。

  數(shù)據(jù)太多,沒機(jī)器玩不轉(zhuǎn)

  過去幾年里,天文領(lǐng)域的大多數(shù)方向都在嘗試使用人工智能??紤]到天文學(xué)要處理的數(shù)據(jù)之多,這是一個(gè)很自然的思路。讓機(jī)器練習(xí)去分析蛛絲馬跡,不如此,未來的天文學(xué)將無法運(yùn)轉(zhuǎn)。

  不久前舉辦的2019年GPU技術(shù)大會(huì)吸引了全世界的人工智能學(xué)者。大會(huì)請來加州大學(xué)圣克魯茲分校的天文學(xué)家布蘭特·羅伯特森演講,他指出:“天文學(xué)正在一場新的數(shù)據(jù)革命的風(fēng)口”。羅伯特森認(rèn)為,新一代天文儀器必須配合由深度學(xué)習(xí)驅(qū)動(dòng)的新一代軟件。

  比如預(yù)計(jì)在3年后運(yùn)行的大口徑全天巡視望遠(yuǎn)鏡(LSST)。它巡視南天那一半宇宙中的370億個(gè)星系,生成一部時(shí)長十年的不間斷視頻。LSST配備的是32億像素的相機(jī),每晚產(chǎn)生25TB的數(shù)據(jù),相當(dāng)于現(xiàn)在先進(jìn)天文望遠(yuǎn)鏡一生貢獻(xiàn)的所有數(shù)據(jù)。

  再比如平方公里陣列射電望遠(yuǎn)鏡(SKA)。它遍布全球,一部分天線在非洲南部8國部署,還有100多萬天線位于澳大利亞和新西蘭。它的原始數(shù)據(jù)每天達(dá)到5千個(gè)PB,處理后也有50個(gè)PB左右。

  “暗能量巡天”編制幾億個(gè)星系的星圖;“蓋亞”衛(wèi)星測繪銀河系數(shù)十億恒星;“茲威基”項(xiàng)目每小時(shí)能夠掃描3750平方度的天區(qū)。在中國,F(xiàn)AST每天的數(shù)據(jù)量將達(dá)150TB;郭守敬望遠(yuǎn)鏡觀測了901萬條光譜,是世界上*大的天體光譜庫……

  捕捉人類看不出的模式

  數(shù)據(jù)越來越多,科學(xué)家試圖聚合它們。但在GPU大會(huì)上,羅伯特森說,未來幾個(gè)大型天文望遠(yuǎn)鏡一起產(chǎn)生大量數(shù)據(jù),聚合之后復(fù)雜到人類無法直接利用。而加州大學(xué)圣克魯斯分校的科學(xué)家試圖解決這個(gè)問題。計(jì)算機(jī)科學(xué)系一名博士生創(chuàng)建的Morpheus深度學(xué)習(xí)框架,可以基于望遠(yuǎn)鏡的原始數(shù)據(jù),逐像素地分類天體。

  加州大學(xué)圣克魯茲分校的科學(xué)家們還用AI更好地研究星系的形成。在他們2019年初發(fā)表的一項(xiàng)研究中,科學(xué)家用計(jì)算機(jī)模擬的星系訓(xùn)練計(jì)算機(jī),讓它學(xué)習(xí)星系演化的三個(gè)關(guān)鍵階段。后來計(jì)算機(jī)分析來自哈勃太空望遠(yuǎn)鏡的星系圖像,表現(xiàn)出奇好。

  人工智能應(yīng)用于人臉識(shí)別,在海量數(shù)據(jù)訓(xùn)練后,可以根據(jù)一張照片,認(rèn)出這個(gè)人化妝和年老時(shí)候的樣子。而宇宙中很多圖像也可用同樣的方法來歸類。

  “深度學(xué)習(xí)可以尋找模式,機(jī)器能看到非常復(fù)雜的模式,而人類看不到?!眳⑴c研究的科學(xué)家大衛(wèi)·庫說,“我們希望進(jìn)一步測試這種方法。在概念驗(yàn)證研究中,機(jī)器似乎成功地在數(shù)據(jù)中找到了模擬中確定的星系演化的不同階段?!?

  幫天文學(xué)家找到另一個(gè)太陽系

  2018年底的一篇報(bào)道顯示,谷歌人工智能發(fā)力,從開普勒系外行星觀測數(shù)據(jù)庫里找到了新的行星。行星是很難尋找的。位于太空的開普勒衛(wèi)星觀察145000顆類似太陽的恒星,從恒星亮度微弱變化來發(fā)現(xiàn)行星。記錄4年的數(shù)據(jù)中,包括大約35000個(gè)疑似的行星記錄。天文學(xué)家用機(jī)器結(jié)合人眼來識(shí)別,但*暗*弱的信號常被忽略。

  在谷歌AI的幫助下,我們發(fā)現(xiàn)了開普勒90i和開普勒80g兩顆新行星。也讓開普勒90被確認(rèn)為第一個(gè)至少擁有8顆行星的外星系。

  神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)處理了140億個(gè)數(shù)據(jù)點(diǎn),之后成功篩選出了候選者。

  NASA和谷歌說,未來新技術(shù)將找到更多系外行星。NASA還表示不用擔(dān)心天文學(xué)家失業(yè)。NASA的科學(xué)家杰西·道特森解釋表示,數(shù)據(jù)提供給神經(jīng)網(wǎng)絡(luò)之前,需要天文學(xué)家進(jìn)行分類,以便人工智能可以從中學(xué)習(xí)分析出新的信息。

  道特森說:“AI以后*會(huì)和天文學(xué)家一起工作,成為必不可少的工具?!?

  當(dāng)然,機(jī)器學(xué)習(xí)也帶來“黑盒子”風(fēng)險(xiǎn):我們得到了答案,但我們不知道機(jī)器為何如此判斷,或許答案是錯(cuò)的。機(jī)器也會(huì)犯錯(cuò)。天文學(xué)家將繼續(xù)訓(xùn)練和適應(yīng)它。
全球化工設(shè)備網(wǎng)(http://www.bhmbl.cn )友情提醒,轉(zhuǎn)載請務(wù)必注明來源:全球化工設(shè)備網(wǎng)!違者必究.
免責(zé)聲明:1、本文系本網(wǎng)編輯轉(zhuǎn)載或者作者自行發(fā)布,本網(wǎng)發(fā)布文章的目的在于傳遞更多信息給訪問者,并不代表本網(wǎng)贊同其觀點(diǎn),同時(shí)本網(wǎng)亦不對文章內(nèi)容的真實(shí)性負(fù)責(zé)。
2、如涉及作品內(nèi)容、版權(quán)和其它問題,請?jiān)?0日內(nèi)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間作出適當(dāng)處理!有關(guān)作品版權(quán)事宜請聯(lián)系:+86-571-88970062