2023-06-22 20:06:12來(lái)源:機(jī)器之心
機(jī)器之心專(zhuān)欄
本文將分 3 期進(jìn)行連載,共介紹 18個(gè)在推薦系統(tǒng)任務(wù)上曾取得 SOTA 的經(jīng)典模型。
【資料圖】
第 1 期:CNN、GRNN、CLSTM、TD-LSTM/TC-LSTM
第 2 期:MemNet、AT-LSTM、IAN、AF-LSTM
第 3 期:Bert on ABSA、ASGCN、GAN、Sentic GCN
您正在閱讀的是其中的第 2 期。前往 SOTA!模型資源站()即可獲取本文中包含的模型實(shí)現(xiàn)代碼、預(yù)訓(xùn)練模型及 API 等資源。
第 1 期回顧:
模型 | SOTA!模型資源站收錄情況 | 模型來(lái)源論文 |
---|---|---|
MemNet | /project/memnet-2收錄實(shí)現(xiàn)數(shù)量:7支持框架:PyTorch,TensorFlow | Aspect Level Sentiment Classification with Deep Memory Network |
AT-LSTM | /project/at-lstm | Attenion-Based LSTM for Aspect-level Sentiment Classification |
IAN | /project/ian收錄實(shí)現(xiàn)數(shù)量:3支持框架:PyTorch,TensorFlow | Interactive Attention Networks for Aspect-Level Sentiment Classification |
AF-LSTM | /project/af-lstm收錄實(shí)現(xiàn)數(shù)量:1支持框架:PyTorch | Learning to Attend via Word-Aspect Associative Fusion for Aspect-Based Sentiment Analysis |
情感分析(sentiment analysis)是指利用計(jì)算機(jī)技術(shù)對(duì)文本、圖像、音頻、視頻甚至跨模態(tài)的數(shù)據(jù)進(jìn)行情緒挖掘與分析。廣義上講,情感分析還包括對(duì)觀點(diǎn)、態(tài)度、傾向的分析等。情感分析是自然語(yǔ)言處理的一個(gè)重要的研究領(lǐng)域。情感分析主要涉及兩個(gè)對(duì)象,即評(píng)價(jià)的對(duì)象(包括商品、服務(wù)、組織、個(gè)體、話題、問(wèn)題、事件等)和對(duì)該對(duì)象的態(tài)度、情感等。情感分析在社會(huì)的輿情管理、商業(yè)決策、精準(zhǔn)營(yíng)銷(xiāo)等領(lǐng)域有著廣泛的應(yīng)用。從情感分析的數(shù)據(jù)來(lái)源角度看,可分為人臉情感分析、語(yǔ)音情感分析、肢體語(yǔ)言情感分析、文本情感分析和生理模式情感分析等,本文聚焦于文本的情感分析,這也是目前網(wǎng)絡(luò)內(nèi)容理解中使用的重要技術(shù)(如無(wú)特別說(shuō)明,下文中提到的情感分析均為文本情感分析)。在自然語(yǔ)言處理中,情感分析屬于典型的文本分類(lèi)問(wèn)題,即把需要進(jìn)行情感分析的文本劃分為其所屬類(lèi)別。主流的情感分析方法有兩種:基于詞典的方法和基于機(jī)器學(xué)習(xí)算法的方法。基于詞典的方法主要通過(guò)制定一系列的情感詞典和規(guī)則,拆解文本、提取關(guān)鍵詞、計(jì)算情感值,最后通過(guò)情感值來(lái)作為文本的情感傾向判斷依據(jù)。這種方法往往會(huì)忽略其詞順序、語(yǔ)法和句法,將這段文本僅僅看做是一個(gè)詞集合,因此不能充分的表達(dá)文本語(yǔ)義信息。而引入深度學(xué)習(xí)技術(shù)的機(jī)器學(xué)習(xí)方法,利用詞嵌入技術(shù)可以避免文字長(zhǎng)短不均帶來(lái)的處理困難;使用深度學(xué)習(xí)抽象特征,可以避免大量人工提取特征的工作;模擬詞與詞之間的聯(lián)系,有局部特征抽象化和記憶功能,因此,深度學(xué)習(xí)技術(shù)在情感分析中發(fā)揮了越來(lái)越重要的作用。目前情感分析用到的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)有多層神經(jīng)網(wǎng)絡(luò)(MLP)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)和長(zhǎng)短期記憶模型(LSTM),具體不同的模型通過(guò)交叉驗(yàn)證技術(shù)選取最優(yōu)參數(shù)(比如,幾層模型、每層節(jié)點(diǎn)數(shù)、Dropout 概率等)。情感分析的模型主要分為三個(gè)層面,分別為:Document level、Sentence level和Aspect level。其中,Document level是將整個(gè)文本作為分析單元并假設(shè)該文本討論的對(duì)象為單一實(shí)體且情感、觀點(diǎn)都是鮮明、清晰的,即neural、positive or negative 。Sentence level則是以每個(gè)句子作為單獨(dú)的分析對(duì)象,由于句子與句子間可能存在某些關(guān)聯(lián),因此我們不能將其認(rèn)為是觀點(diǎn)明確的。而對(duì)于Aspect level其分類(lèi)粒度更細(xì),即我們需要抽取出targets不同層面相互獨(dú)立的評(píng)價(jià),并進(jìn)行總結(jié)綜合得到最后的情感。本文回顧情感分析中必備的TOP模型。一些經(jīng)典的自然語(yǔ)言處理領(lǐng)域的模型,例如XLNet、Bert及各種變體,適用于NLU、文本生成、情感分析等多個(gè)領(lǐng)域,本文均不涉及。本文只專(zhuān)注于專(zhuān)門(mén)的sentiment analysis模型。
一、Aspectlevel
本文引入memory network,并且和LSTM不同的是注意力計(jì)算的輸入是直接的word embedding而不是經(jīng)過(guò)LSTM 之后的隱藏層。給定一句話,包括n個(gè)words 和一個(gè) aspect word w_i ,之后通過(guò)預(yù)測(cè)句子 s 的情感極性來(lái)當(dāng)作該 aspect 的情感極性。
圖1 深度記憶網(wǎng)絡(luò)有三個(gè)計(jì)算層(跳,hops),用于屬性級(jí)情感分類(lèi)的說(shuō)
如圖1所示,圖左邊部分,給定一個(gè)句子 s = w_1,w_2,…,w_i,…w_n和 aspect word w_i,并獲取每個(gè) word 的 embedding vector 分別記為 e_1,e_2,…,e_i,…e_n(因?yàn)閷?shí)際情況中 aspect 可能不止一個(gè)單詞,所以為了方便能都用 w_i表示,在 aspect 為多個(gè) word 的情況時(shí),得到其中每個(gè) word 的 embedding vector 之后求和取平均。)之后將這些 words 分為兩部分:aspect 部分和 context 部分,其中 context 部分的 word vectors {e_1,e_2,…,e_{i-1},e_{i+1},…e_n}被合在一起作為外部記憶 m ∈ R^{d×(n-1)}。圖右邊部分由多個(gè)計(jì)算層組成,每個(gè)計(jì)算層都是兩路的,一路是 attention layer,另一路是 linear layer。在 hop 1 中利用注意力機(jī)制來(lái)實(shí)現(xiàn)對(duì)外部記憶的內(nèi)容尋址,其中 aspect vector 作為 Attention 中的查詢向量。之后將Attention layer 的結(jié)果和 aspect vector 經(jīng)過(guò)線性變換之后的結(jié)果求和作為最終結(jié)果,并作為下一個(gè) hop 的輸入。之后按 hop1 同樣的方式執(zhí)行多次,這樣可以使更多的外部記憶中的內(nèi)容(context 內(nèi)容)選擇。因?yàn)楫?dāng)?shù)谝淮?context 中有的部分被送入 Attention 中,那么第二次查詢時(shí),查詢向量就包含了一部分原本是 context 的內(nèi)容,那么之后找到的內(nèi)容肯定更多(因?yàn)椴樵冎杏?context 內(nèi)容,所以能匹配的內(nèi)容也更多)。最后,將最后一層的 hop 的輸出作為整個(gè)句子的表示并用于情感分類(lèi)。每個(gè)計(jì)算層(hop)中的參數(shù)是共享的,所以無(wú)論構(gòu)建一個(gè)計(jì)算層還是多個(gè)計(jì)算層其參數(shù)量是相同的。本文的Attention 部分包含 Content Attention(注意內(nèi)容)和 Location Attention(注意地址)兩部分。一方面,不同context word對(duì)于句子的語(yǔ)義表示貢獻(xiàn)不一樣;另一方面,不同的context word對(duì)于特定aspect的情感傾向的重要性也是不一樣的。
content attention:在hop1的attention中,可以把關(guān)鍵詞向量W_i認(rèn)為是query,word詞嵌入認(rèn)為是key和value,尋找句子和屬性詞之間的關(guān)系:
location attention:作用是加大對(duì)屬性詞的周?chē)~的注意力,具體作者在文中提出了四種location attention。Model 1:作者用下面這個(gè)公式計(jì)算 memory vector m_i:
Model 2:這是model 1的簡(jiǎn)化版本,對(duì)不同跳數(shù)的w_i使用相同的位置向量v_i。位置向量v_i 的計(jì)算方法如下:
Model 3:將位置向量v_i看作是一個(gè)參數(shù),用向量加法計(jì)算一塊內(nèi)存,即:
Model 4:位置向量也被看作是參數(shù)。與Model 3不同的是,位置表征被視為神經(jīng)門(mén),以控制多少百分比的詞的語(yǔ)義寫(xiě)入存儲(chǔ)器中。將位置向量v_i送入一個(gè)sigmoid函數(shù)σ,用元素相乘法計(jì)算m_i:
多層計(jì)算層的必要性首先多層計(jì)算層在得到抽象表示方面被廣泛使用。因?yàn)閱螌佑?jì)算層只包含一個(gè) attention layer,不足以處理復(fù)雜計(jì)算,即模型能力不強(qiáng),所以作者提出使用多層計(jì)算層來(lái)提升模型的處理能力。分類(lèi)部分直接使用softmax來(lái)進(jìn)行分類(lèi)。
當(dāng)前SOTA!平臺(tái)收錄MemNet共7個(gè)模型實(shí)現(xiàn)。
項(xiàng)目 | SOTA!平臺(tái)項(xiàng)目詳情頁(yè) |
---|---|
MemNet | 前往 SOTA!模型平臺(tái)獲取實(shí)現(xiàn)資源:/project/memnet-2 |
Aspect level sentiment是個(gè)fine-grained細(xì)粒度的任務(wù),是針對(duì)一個(gè)句子中陳述的不同屬性(aspect)進(jìn)行分類(lèi),過(guò)去是直接對(duì)一個(gè)整句子判斷情感極性,而不考慮句子內(nèi)部不同部分的sentiment。這種方法提出時(shí),神經(jīng)網(wǎng)絡(luò)模型在屬性級(jí)情感分類(lèi)任務(wù)的表現(xiàn)差強(qiáng)人意。例如上文介紹的TD-LSTM、TC-LSTM 方法只考慮了 target 沒(méi)有考慮 aspect。進(jìn)一步可以理解為之前的工作只考慮一句話中選定的一個(gè) target(即 entity or aspect),然而,一句話中可能出現(xiàn)多個(gè) aspect 。作者考慮引入attention。LSTM with Aspect Embedding(AE-LSTM)。因?yàn)?aspect 信息很重要,所以作者提出要給 aspect 找 embedding vector。因?yàn)橐痪湓捴锌赡艹霈F(xiàn)多個(gè) aspect ,所以每個(gè) aspect 應(yīng)當(dāng)有各自對(duì)應(yīng)的 embedding vector 。作者用v_{a_i}來(lái)代表第 i 個(gè) aspect 的 embedding vector,其維度為 d_a,所以可以表示為 v_{a_i}∈R^{d_a}。而所有 aspect 的 embedding vector 組成的 embedding matrix 用 A 表示,A∈R^{d_a×|A|},其中,|A|代表 A 中的向量個(gè)數(shù)。Attention-based LSTM (AT-LSTM)。為了抓住一句話中對(duì)應(yīng)于屬性重要部分的信息,作者提出了一種 attention mechanism,示意圖如下:
圖2 基于注意力的LSTM結(jié)構(gòu)。屬性嵌入用來(lái)決定注意力權(quán)重和句子表征。{w_1, w_2, ...., w_N }表示長(zhǎng)度為N的句子中的詞向量,v_a表示屬性嵌入,α是注意權(quán)重,{h_1, h_2, ...... , h_N }是隱藏向量
首先將 sequence 經(jīng)過(guò) LSTM layor 之后得到的 output h_i與當(dāng)前考慮的 aspect v_a進(jìn)行拼接。用 H 表示 [h_1,…,h_N]這個(gè)矩陣,其中 N 為該 sequence 的長(zhǎng)度,H∈R^{d×N}, d 為h_i的維度也即 LSTM layer 中神經(jīng)元個(gè)數(shù)。之后對(duì)拼接后的向量做 Attention 操作得到整句話的表示 r :
最后的句子表示法是:
得到這個(gè)句子最后的表示之后,將其放入一個(gè) linear layor 得到維度為情感類(lèi)別個(gè)數(shù)的輸出,之后用 softmax 處理來(lái)得到最后結(jié)果。Attention-based LSTM with Aspect Embedding (ATAE-LSTM)。將 AE、AT 合起來(lái),其形式如下圖:
圖3 基于注意力的LSTM的結(jié)構(gòu)與屬性嵌入。屬性嵌入與詞的嵌入一起被作為輸入。{w_1, w_2, ...., w_N }代表一個(gè)長(zhǎng)度為N的句子中的詞向量,v_a代表屬性嵌入,{h_1, h_2, ...... , h_N }是隱藏向量
在AE-LSTM中使用屬性信息的方法是讓屬性嵌入在計(jì)算注意權(quán)重時(shí)發(fā)揮作用。為了更好地利用屬性信息,將輸入的屬性嵌入附加到每個(gè)詞的輸入向量中。這樣一來(lái),輸出的隱藏表征(h_1, h_2, ..., h_N)可以擁有來(lái)自輸入屬性(v_a)的信息。因此,在接下來(lái)計(jì)算注意力權(quán)重的步驟中,詞語(yǔ)和輸入屬性之間的相互依賴性可以被建模。最后,訓(xùn)練的目標(biāo)是使所有句子的y和y?的交叉熵誤差最小:
項(xiàng)目 | SOTA!平臺(tái)項(xiàng)目詳情頁(yè) |
---|---|
AT-LSTM | 前往 SOTA!模型平臺(tái)獲取實(shí)現(xiàn)資源:/project/at-lstm |
本文作者認(rèn)為目標(biāo)和情境都可以單獨(dú)建模,需要通過(guò)交互學(xué)習(xí)來(lái)學(xué)習(xí)它們自己的表現(xiàn)形式。在此基礎(chǔ)上,提出了交互式注意網(wǎng)絡(luò)(interactive attention networks, IAN),實(shí)現(xiàn)了目標(biāo)和語(yǔ)境的注意力交互學(xué)習(xí),并分別生成目標(biāo)和語(yǔ)境的注意力表征。具體的,本文提出了基于長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)和注意力機(jī)制的交互式注意力網(wǎng)絡(luò)(Interactive Attention Networks,IAN)模型。情感分類(lèi)網(wǎng)絡(luò)利用與目標(biāo)相關(guān)的注意力機(jī)制從上下文中獲取重要信息,并計(jì)算上下文表示來(lái)進(jìn)行情感分類(lèi)。此外,網(wǎng)絡(luò)利用上下文的交互信息監(jiān)督目標(biāo)的建模,這有助于判斷情感。最后,將目標(biāo)表示和上下文表示連接起來(lái),IAN預(yù)測(cè)了目標(biāo)在其上下文中的情感極性。
圖4 IAN結(jié)構(gòu)圖
IAN模型由兩部分組成,對(duì)目標(biāo)和上下文進(jìn)行交互建模。以單詞嵌入為輸入,采用LSTM網(wǎng)絡(luò)來(lái)分別獲得目標(biāo)和其上下文在單詞層面的隱藏狀態(tài)。使用目標(biāo)的隱藏狀態(tài)和上下文的隱藏狀態(tài)的平均值來(lái)監(jiān)督注意力向量的生成,通過(guò)注意力機(jī)制來(lái)捕捉上下文和目標(biāo)中的重要信息。通過(guò)這種設(shè)計(jì),目標(biāo)和上下文可以交互地影響其表示的生成。最后,串聯(lián)目標(biāo)表征和上下文表征作為最終表征,并被送入softmax函數(shù)用于屬性級(jí)情感分類(lèi)。單詞嵌入層:將每個(gè)單詞嵌入到一個(gè)低維實(shí)值向量中。詞的嵌入可以看作是神經(jīng)網(wǎng)絡(luò)的參數(shù),也可以看作是通過(guò)語(yǔ)言模型從適當(dāng)?shù)恼Z(yǔ)料庫(kù)中預(yù)先訓(xùn)練出來(lái)的。LSTM隱藏層:
得到上下文語(yǔ)境的隱藏狀態(tài)、目標(biāo)隱藏狀態(tài),以及上下文和目標(biāo)的初始表征:
注意力層:將上下文與目標(biāo)的表征分別送入注意力層,考慮目標(biāo)對(duì)上下文的影響和上下文對(duì)目標(biāo)的影響:
最終,得到目標(biāo)與上下文的表征:
最后,將目標(biāo)表征和上下文表征連接成一個(gè)向量d作為分類(lèi)器。這里,使用一個(gè)非線性層將d投射到目標(biāo)C類(lèi)的空間中:
當(dāng)前SOTA!平臺(tái)收錄IAN共3個(gè)模型實(shí)現(xiàn)。
項(xiàng)目 | SOTA!平臺(tái)項(xiàng)目詳情頁(yè) |
---|---|
IAN | 前往 SOTA!模型平臺(tái)獲取實(shí)現(xiàn)資源:/project/ian |
本文主要是針對(duì)ATAE-LSTM的改進(jìn),提出了AF-LSTM。通過(guò)增加一個(gè)Word- Aspect Fusion(aspect與word融合層)分離各層的職責(zé),使模型首先對(duì)aspect和words之間的關(guān)系進(jìn)行建模,然后使注意力層專(zhuān)注于學(xué)習(xí)已經(jīng)經(jīng)過(guò)融合的上下文words的相對(duì)重要性。
圖5AF-LSTM整體架構(gòu)
Word-Aspect Fusion Attention Layer:模型輸入是句子向量和aspect向量 s,句子長(zhǎng)度為 L, 詞向量維度為 k。LSTM layer:句子向量作為L(zhǎng)STM模型的輸入,輸出是隱藏層向量H,模型參數(shù)向量維度為 d。Word-Aspect Fusion Attention Layer:這一層是模型的重點(diǎn)。首先,對(duì)于LSTM的每個(gè)輸出向量hi? H,都會(huì)學(xué)習(xí)word與aspect的聯(lián)合表示,結(jié)果記為mi?R^d 。它對(duì)上下文單詞h_i和aspect之間的關(guān)系進(jìn)行了編碼,為了學(xué)習(xí)h和s的聯(lián)合表示,論文使用了associative memory operators 來(lái)得到m_i 。隨后,經(jīng)過(guò)編碼的聯(lián)合表示m1 ,m2,...,mL作為注意力層的輸入,得到的結(jié)果進(jìn)入Weighted Sum層進(jìn)行加權(quán)求和。相對(duì)于ATAE-LSTM模型,這里最大的不同就是增加了一個(gè)word-aspect融合層,代替了原來(lái)的直接拼接的操作。這個(gè)操作就是用來(lái)建模acpect與words的關(guān)系,論文中對(duì)于這個(gè)操作定義了兩個(gè)運(yùn)算符,circular correlation和circular convolution ,分別定義如下:
總的來(lái)說(shuō),關(guān)聯(lián)層的輸出定義如下:
在學(xué)習(xí)h_i 和s的關(guān)聯(lián)之前,還使用了一個(gè)可選的歸一化層。接下來(lái),將每個(gè)隱藏狀態(tài)h_t和屬性向量s通過(guò)關(guān)聯(lián)運(yùn)算符的組成用于學(xué)習(xí)注意力:
最終表示如下:
將句子的加權(quán)表示r傳遞到最后一層,該層將加權(quán)表示r轉(zhuǎn)換為概率分布。這一層也包括一個(gè)線性轉(zhuǎn)換層,然后是一個(gè)softmax函數(shù)。最后一層定義如下:
采用交叉熵?fù)p失函數(shù)進(jìn)行優(yōu)化:
當(dāng)前SOTA!平臺(tái)收錄AF-LSTM共1個(gè)模型實(shí)現(xiàn)。
項(xiàng)目 | SOTA!平臺(tái)項(xiàng)目詳情頁(yè) |
---|---|
AF-LSTM | 前往 SOTA!模型平臺(tái)獲取實(shí)現(xiàn)資源:/project/af-lstm |
前往 SOTA!模型資源站()即可獲取本文中包含的模型實(shí)現(xiàn)代碼、預(yù)訓(xùn)練模型及API等資源。
網(wǎng)頁(yè)端訪問(wèn):在瀏覽器地址欄輸入新版站點(diǎn)地址,即可前往「SOTA!模型」平臺(tái),查看關(guān)注的模型是否有新資源收錄。
移動(dòng)端訪問(wèn):在微信移動(dòng)端中搜索服務(wù)號(hào)名稱「機(jī)器之心SOTA模型」或 ID「sotaai」,關(guān)注 SOTA!模型服務(wù)號(hào),即可通過(guò)服務(wù)號(hào)底部菜單欄使用平臺(tái)功能,更有最新AI技術(shù)、開(kāi)發(fā)資源及社區(qū)動(dòng)態(tài)定期推送。
關(guān)鍵詞:
責(zé)任編輯:6月20日,記者從??谑新糜魏臀幕瘡V電體育局了解到,今年端午假期,該
當(dāng)?shù)貢r(shí)間6月20日,美國(guó)海岸警衛(wèi)隊(duì)就參觀“泰坦尼克”號(hào)水下殘骸的失蹤
2021年,李虎大學(xué)畢業(yè)后回到寧夏銀川,入職順豐公司。
6月21日20時(shí)40分許,寧夏回族自治區(qū)銀川市興慶區(qū)民族南街富洋燒烤店操
近日,騰訊視頻發(fā)布了由原著小說(shuō)《劍來(lái)》改編的電視劇概念海報(bào)。海報(bào)畫(huà)
你需要的東西白色床單木樁或桿子塑料袋報(bào)紙防水涂料或標(biāo)記麻線或絲
中新社天津6月22日電 (張少宣)天津市第九屆市民運(yùn)動(dòng)會(huì)龍舟比賽暨20
6月21日上午,福州市禁毒工作情況新聞發(fā)布會(huì)召開(kāi)。記者從會(huì)上獲悉,202
而且他的實(shí)力展示并不多,但我們可以參考16隊(duì)隊(duì)長(zhǎng)以藏的表現(xiàn),他能有5
中新經(jīng)緯6月22日電國(guó)家金融監(jiān)督管理總局網(wǎng)站近日發(fā)布的行政處罰信息公
日前,人力資源社會(huì)保障部辦公廳印發(fā)《關(guān)于開(kāi)展農(nóng)民工工資爭(zhēng)議速裁庭建
撰文|劉思宇編輯?|路也來(lái)源?|泰伯網(wǎng)·泰伯網(wǎng)客戶端日前,泰伯網(wǎng)梳理
活動(dòng)現(xiàn)場(chǎng)圖片來(lái)源:成都東部新區(qū)提供6月21日,成都東部新區(qū)2023年三個(gè)
1、但丁的短程武器:2、反叛之刃。3、但丁最初的主武器是魔劍客斯巴達(dá)
央視網(wǎng)消息:從6月中旬開(kāi)始,位于天山腳下的新疆伊犁河谷就進(jìn)入到了最
1、山東>濟(jì)南天氣預(yù)報(bào)18日(今天)多云26 17℃19日(明天)晴25 14℃20
味精是一種常見(jiàn)的調(diào)味品,是以糧食為原料經(jīng)發(fā)酵提純的谷氨酸鈉結(jié)晶,所
直播吧6月22日訊在接受Sportv采訪時(shí),巴拉納競(jìng)技前鋒羅克被問(wèn)到了關(guān)于
有些朋友對(duì)我們近期的業(yè)績(jī)表現(xiàn)提出質(zhì)疑,對(duì)比2020年的業(yè)績(jī)投資策略是否
6月22日,據(jù)銀川市政府的消息,銀川市人民政府辦公室預(yù)計(jì)今晚8點(diǎn)召開(kāi)銀
近日,夸克App升級(jí)智能選志愿、志愿表等高考信息服務(wù)功能,并發(fā)布《202
圖為“少年科普路”新聞發(fā)布會(huì)。中新社記者易海菲攝圖為頤和園向同學(xué)們
(中科院國(guó)家天文臺(tái)供圖)新華社北京6月22日電(記者張泉、歐東衢)科
近日,惠普戰(zhàn)66五代筆記本電腦推出促銷(xiāo)活動(dòng),促銷(xiāo)價(jià)格為3799元,消費(fèi)者
6月21日消息,據(jù)燈塔專(zhuān)業(yè)版實(shí)時(shí)數(shù)據(jù),截至6月21日17時(shí)39分,2023年端午
1、一人、多人有限公司區(qū)別:一人公司注冊(cè)資本需要一次到位;一個(gè)自然
[汽車(chē)之家資訊]近日,豐田官方確認(rèn),雷克薩斯將會(huì)基于GRGT3概念車(chē)打造
近日,陜西省夏糧陸續(xù)上市,新一輪夏糧收購(gòu)正式展開(kāi)。夏糧收購(gòu)是全年糧
天福(06868)發(fā)布公告,于2023年6月21日斥資9340港元回購(gòu)股份2000
近期,普洱市消防救援支隊(duì)將7頭搜救犬因犬齡較高、作業(yè)能力退化等原因
招聘活動(dòng)邀請(qǐng)了中測(cè)測(cè)試(西安)檢驗(yàn)檢測(cè)有限公司、陜西建工第五建設(shè)集
福州人下班快回家
6月20日,記者從海口市旅游和文化廣電體育局了解到,今年端午假期,該
重慶市政府新聞辦20日召開(kāi)新聞發(fā)布會(huì)通報(bào),2022年,重慶全市破獲毒品案
金泰梨可塑性真強(qiáng),日常私服風(fēng)格多變,喜歡她的粉絲真是太有福了!每時(shí)
《花露水的前世今生》,是2012年7月風(fēng)靡網(wǎng)絡(luò)的一段關(guān)于”六神“花露水
1、看是不是騙人,你這樣分析。2、1,公司是不是被執(zhí)法機(jī)關(guān)審查?2,公
蘋(píng)果將于下月在庫(kù)比提諾、倫敦、慕尼黑、上海、新加坡和東京開(kāi)設(shè)開(kāi)發(fā)者
記者21日從文昌市政府獲悉,為加快推進(jìn)文昌市研學(xué)產(chǎn)業(yè)高質(zhì)量發(fā)展,將文
6月21日,由四川省人民檢察院指導(dǎo),成都市人民檢察院主辦,崇州市人民
6月21日,“有一種叫云南的生活”·我愛(ài)西雙版納大型調(diào)研采訪活動(dòng)走進(jìn)
新華社北京6月22日電題:中國(guó)鄉(xiāng)村“現(xiàn)象級(jí)”體育賽事頻現(xiàn) 新華社記
巔峰極速錦鯉車(chē)牌號(hào)活動(dòng)出現(xiàn)BUG的事情相信大家已經(jīng)都了解了,目前官方
當(dāng)?shù)貢r(shí)間6月20日,美國(guó)海岸警衛(wèi)隊(duì)就參觀“泰坦尼克”號(hào)水下殘骸的失蹤
石嘴山市惠農(nóng)區(qū)人民醫(yī)院黨總支書(shū)記王寶明涉嫌嚴(yán)重違紀(jì)違法,目前正接受
當(dāng)?shù)貢r(shí)間21日,聯(lián)合國(guó)貿(mào)易和發(fā)展會(huì)議發(fā)布最新版《全球貿(mào)易》數(shù)據(jù)。報(bào)告
(劉俊蒼)6月20日下午,“覺(jué)于般若——張佩鋼中國(guó)畫(huà)小品展”在天津市
我已經(jīng)大約8年沒(méi)失眠過(guò)了!包括陽(yáng)了之后發(fā)高燒心跳加快,我可以察覺(jué)心
央視網(wǎng)消息:端午節(jié)與春節(jié)、清明節(jié)、中秋節(jié)并稱為中國(guó)四大傳統(tǒng)節(jié)日,也
環(huán)島旅游公路瓊海段一處觀景臺(tái)。車(chē)在海邊走人在畫(huà)中游海南最美風(fēng)景,在
(嚴(yán)潔文一冰)20日,湖南永州市東安縣鄉(xiāng)村龍舟超級(jí)聯(lián)賽在該縣白牙市鎮(zhèn)馬
1、一、瀍的拼音:chán二、釋義:瀍河,水名,在河南。2、源出今河南
關(guān)于上海金茂君悅大酒店房間怎么樣的內(nèi)容,包含怎么幽默形容上海君悅金
(崔志平王鵬)20日,雄安·衡水協(xié)作區(qū)安平博覽會(huì)在雄安新區(qū)容城體育館啟
日前,全新一代埃爾法 威爾法的官圖正式發(fā)布,新車(chē)將會(huì)在TNGA-K架構(gòu)上
近日,記者從省人力資源和社會(huì)保障廳獲悉,我省啟動(dòng)2023年職業(yè)技能提升
2021年,李虎大學(xué)畢業(yè)后回到寧夏銀川,入職順豐公司。
6月22日,2023年亞洲擊劍錦標(biāo)賽在江蘇無(wú)錫落幕。中國(guó)隊(duì)在收官日獲得女
今日,狀元熱門(mén)文班亞馬正在接受選秀前的記者采訪。有記者問(wèn)到了文班亞
6月18日,有網(wǎng)友報(bào)料稱2023年江蘇省健美健身錦標(biāo)賽上,一女模特認(rèn)為比
調(diào)水調(diào)沙是調(diào)節(jié)黃河水沙關(guān)系的重要手段之一。隨著黃河主汛期臨近,結(jié)合
6月16日,一場(chǎng)別開(kāi)生面的畢業(yè)派對(duì)在廣州長(zhǎng)隆水上樂(lè)園上演。數(shù)百名來(lái)自
長(zhǎng)春市寬城區(qū)人民法院 供圖(譚偉旗馮玉瑩)為深入推進(jìn)“法治副校長(zhǎng)”工
全國(guó)乘聯(lián)會(huì)秘書(shū)長(zhǎng)崔東樹(shù)表示,隨著中央和地方促進(jìn)汽車(chē)消費(fèi)政策落地,市
(王子謙尹建軍)海南省自然資源和規(guī)劃廳21日介紹,自6月15日至8月15日,
近日,茶百道的新一輪融資振奮了低迷一年的新式茶飲賽道。放眼行業(yè),無(wú)
WTI原油日內(nèi)跌幅達(dá)1 00%,現(xiàn)報(bào)71 62美元 桶;布倫特原油日內(nèi)跌幅達(dá)1 00
大家好,今日關(guān)于【青島1米88大長(zhǎng)腿交警回應(yīng)走紅】的話題登上了各大平
【拒絕內(nèi)卷!四大養(yǎng)豬巨頭簽《互不挖人公約》!“如有違約加倍反制”共
麻將一穿三是四個(gè)人中三人都輸了,只有一家獨(dú)贏,麻將四人圍坐競(jìng)技,輸
一、核心觀點(diǎn)1 半導(dǎo)體設(shè)備板塊2022年報(bào)、23q1業(yè)績(jī)?cè)鲩L(zhǎng)亮眼(收入端、利
來(lái)為大家解答以下的問(wèn)題,皮是什么原因圖片,脫皮是什么原因這個(gè)很多人
快船休賽季不能坐以待斃了,如果威少不能以一年380萬(wàn)美元的年薪重返球
中新網(wǎng)沈陽(yáng)6月22日電 (記者 趙桂華)6月22日,“非遺迎端午匠心頌
作為緊湊級(jí)SUV的新勢(shì)力,奔騰T55真正做到了“顏智體”在線,是一款集安
不限速超良心!阿里云盤(pán)iOS4 8 1版發(fā)布:會(huì)員能看2K臻彩視頻了
天眼查App顯示,近日,小米科技有限責(zé)任公司、小米通訊技術(shù)有限公司、
南方財(cái)經(jīng)全媒體記者劉黎霞廣州報(bào)道 當(dāng)下正值“荔枝季”,保鮮是荔枝
12490F以高主頻和強(qiáng)性能成了很多游戲玩家眼中的神U,6核心12線程可以滿
隨著高考落幕,畢業(yè)游熱度抬升,開(kāi)啟了“暑期檔”的序幕。對(duì)于這個(gè)暑假
6月21日20時(shí)40分許,寧夏回族自治區(qū)銀川市興慶區(qū)民族南街富洋燒烤店操
2023年06月21日00:45:18來(lái)源:中國(guó)新聞網(wǎng)綜合臺(tái)灣媒體報(bào)道,海關(guān)總署20
上海加快布局文旅元宇宙新賽道---中新網(wǎng)上海6月21日電上海市文化和旅游
歡迎觀看本篇文章,小升來(lái)為大家解答以上問(wèn)題。什么叫服務(wù)器,服務(wù)器介
6月16日,中國(guó)科學(xué)技術(shù)大學(xué)先進(jìn)技術(shù)研究院2023屆畢業(yè)生畢業(yè)典禮在先研
新華社貴陽(yáng)6月22日電題:“兩江兩村”體育賽事塑造鄉(xiāng)村經(jīng)濟(jì)新范本一個(gè)
偉大時(shí)代呼喚偉大精神,偉大事業(yè)更需榜樣引領(lǐng)。近日,全省“鐵人精神代
中新網(wǎng)昆明6月22日電(熊佳欣)22日,云南省怒江傈僳族自治州貢山縣發(fā)布
1、確實(shí)挺不錯(cuò)的,最好的方法是一邊學(xué)習(xí)一邊實(shí)習(xí),這樣能快的成長(zhǎng),當(dāng)
或許是看中了其中的商機(jī),近日曝出多家公司邀請(qǐng)梅西再來(lái)中國(guó),這對(duì)于國(guó)
對(duì)于那些對(duì)聯(lián)賽成績(jī)還有追求的中超俱樂(lè)部來(lái)說(shuō),這是他們?cè)诒举惣咀詈笠?/p>
滿載492名游客的Y152次旅游專(zhuān)列22日從西安站緩緩駛出,經(jīng)山海關(guān)、北
1、教育、服務(wù)與管理的重要。2、沒(méi)有范文。3、以下供參考,主要寫(xiě)一下
6月21日消息,韓國(guó)OLED沉積設(shè)備廠商SunicSystem宣布與視涯(SeeYa)簽
亞匯網(wǎng)獲悉,周三美股盤(pán)前,巴克萊銀行將特斯拉(TLA U)股票評(píng)級(jí)從“增
6 26國(guó)際禁毒日來(lái)臨之際,6月20日,北京市高級(jí)人民法院通報(bào)2020年以來(lái)
“重慶發(fā)布”微信公眾號(hào)消息,6月21日下午,重慶市人民政府與浙江吉利
據(jù)法拉第未來(lái)官方微博,5月31日,法拉第未來(lái)召開(kāi)“FF91&FaradayFuture2
互不挖人!四大養(yǎng)豬企業(yè)刷屏,最新回應(yīng)來(lái)了
(祁增蓓 吳治國(guó))記者22日從青海省格爾木市消防救援支隊(duì)獲悉,6月
上海市數(shù)字化辦公室、上海市經(jīng)濟(jì)和信息化委員會(huì)主任吳金城20日表示,上
(郭軍孫明超黃子華)廣東片區(qū)第十三個(gè)“世界海員日”慶祝大會(huì)20日在江門(mén)
1、應(yīng)該是安裝出錯(cuò)了,卸載以后重新下載安裝試試,應(yīng)該就可以了。2、卸
親,您今天做飯的時(shí)候放味精了嗎?味精,家庭常備的調(diào)味品,有著很好的