pos機(jī)刷卡小票到底要保留多久,360數(shù)科OCR國(guó)際技術(shù)競(jìng)賽冠軍

 新聞資訊2  |   2023-06-11 12:33  |  投稿人:pos機(jī)之家

網(wǎng)上有很多關(guān)于pos機(jī)刷卡小票到底要保留多久,360數(shù)科OCR國(guó)際技術(shù)競(jìng)賽冠軍的知識(shí),也有很多人為大家解答關(guān)于pos機(jī)刷卡小票到底要保留多久的問(wèn)題,今天pos機(jī)之家(www.afbey.com)為大家整理了關(guān)于這方面的知識(shí),讓我們一起來(lái)看下吧!

本文目錄一覽:

1、pos機(jī)刷卡小票到底要保留多久

pos機(jī)刷卡小票到底要保留多久

機(jī)器之心報(bào)道

機(jī)器之心編輯部

在 OCR 識(shí)別領(lǐng)域最權(quán)威的會(huì)議之一 ICDAR(國(guó)際文檔分析與識(shí)別會(huì)議)上,360 數(shù)科在 ICDAR2019- SROIE 榜單上斬獲第一。

榜單地址:https://rrc.cvc.uab.es/?ch=13&com=evaluation&task=2

作為計(jì)算機(jī)視覺(jué)領(lǐng)域一個(gè)重要分支,OCR(Optical Character Recognition,光學(xué)字符識(shí)別)技術(shù)主要包括三大方面,分別是文本檢測(cè)、文本識(shí)別和視覺(jué)信息抽取。文本檢測(cè)是通過(guò) OCR 算法定位圖像中文字,一般通過(guò)四邊或者矩形框表示文字的位置。文本識(shí)別是通過(guò)識(shí)別算法或者模型,將給定的文字片段圖像中的文字通過(guò)字符串的形式轉(zhuǎn)寫出來(lái)。而視覺(jué)信息抽取則是將圖像中人們定義的關(guān)鍵信息抽取出來(lái),比如姓名、性別、電話號(hào)碼等。

360 數(shù)科希望通過(guò)分享在文本識(shí)別和語(yǔ)言糾錯(cuò)方面的探索和總結(jié),能對(duì)業(yè)界帶來(lái)一些幫助或啟發(fā)。

1 SROIE2019 賽事介紹

在 ICDAR2019 Robust Reading Competitions 的 6 個(gè)賽道上 [1~6],SROIE2019 更關(guān)注商超小票文本行檢測(cè)、識(shí)別和信息抽取,這也是 OCR 領(lǐng)域中目前的難點(diǎn)所在。

ICDAR 競(jìng)賽因其極高技術(shù)難度和強(qiáng)大實(shí)用性,一直是各大科研院校、科技公司的競(jìng)逐焦點(diǎn),吸引國(guó)內(nèi)外眾多隊(duì)伍參賽。

1.1 賽事介紹

SROIE2019 分為三個(gè)子任務(wù):文本檢測(cè)(要求在原圖中給出文本區(qū)域的位置坐標(biāo))、文本識(shí)別(在給定的文本區(qū)域裁剪圖基礎(chǔ)上,將其中的文字內(nèi)容正確識(shí)別出來(lái))、視覺(jué)信息抽?。ǔ槿∽R(shí)別出的文本行中的關(guān)鍵信息,比如價(jià)格、日期等)。

本次比賽,我們專注于 SROIE 中的文本行識(shí)別任務(wù),其評(píng)價(jià)指標(biāo)采用 F1 score 評(píng)價(jià)模型性能。F1 score 是召回率 Recall 和準(zhǔn)確率 Precision 的調(diào)和平均值,這三者的計(jì)算方式如公式 (1) (2) (3) 所示。

其中,TP、FP、FN 分別表示 True Positive、False Positive 以及 False Negative。TP、FP、FN 的界定是基于識(shí)別出來(lái)的文本行與給出來(lái)的 GT 逐個(gè)單詞比較,完全正確判定識(shí)別正確。SROIR 文本識(shí)別任務(wù)數(shù)據(jù)集包含 33626 張訓(xùn)練集和 19385 張測(cè)試集樣張,其中訓(xùn)練集的標(biāo)注格式是給出給定文本行圖像及對(duì)應(yīng)的文本,如下圖 1 所示 [1]。

圖 1:訓(xùn)練集數(shù)據(jù)樣張。

1.2 賽事難點(diǎn)

該賽事主要有以下幾方面的難點(diǎn):

文本行字體模糊不清。官方給出的比賽數(shù)據(jù)集,均來(lái)自商超結(jié)算小票掃描圖像,由于小票均為機(jī)打且存放時(shí)間過(guò)長(zhǎng),導(dǎo)致掃描出來(lái)的文本行存在較為嚴(yán)重的磨損和缺失,字體筆畫不完整等情形,這給 OCR 識(shí)別算法帶來(lái)很大挑戰(zhàn)。文本行圖像出現(xiàn)彎曲。給出的文本行圖像中出現(xiàn)較大比例的彎曲,現(xiàn)今主流文本行識(shí)別算法對(duì)水平文本識(shí)別較為穩(wěn)健,彎曲文本行識(shí)別是 OCR 識(shí)別業(yè)內(nèi)難點(diǎn)。標(biāo)注歧義。給出來(lái)的文本行在對(duì)應(yīng)的文本圖像中根本不存在、空格標(biāo)注錯(cuò)誤以及形近字標(biāo)注錯(cuò)誤,這給算法的泛化性帶來(lái)了很大的沖擊。

2 技術(shù)方案

算法、數(shù)據(jù)和算力是推動(dòng)深度學(xué)習(xí)往前演進(jìn)的三駕馬車,本小節(jié)我們分別就上述三大塊進(jìn)行詳細(xì)介紹,以及針對(duì) 1.2 提到的賽事難點(diǎn)提出相應(yīng)的解決方案。

針對(duì) SROIE 中的文本行識(shí)別,我們首先采用 CRNN [7] 技術(shù)方案,并對(duì) CRNN 中的 Encoder 和 Decoder 部分做了大量分析和比較實(shí)驗(yàn),得到了一個(gè)非常不錯(cuò)的 baseline 模型。

其次,針對(duì)本次文字模糊不清問(wèn)題,我們生成了近 5000W 的數(shù)據(jù)集并在該數(shù)據(jù)集上訓(xùn)練得到一個(gè)預(yù)訓(xùn)練模型,基于該預(yù)訓(xùn)練模型進(jìn)行 finetune,模型大幅提升了 5.4%。最后針對(duì)文本行彎曲問(wèn)題,我們提出了基于 tps+unet 自學(xué)習(xí)的預(yù)處理模塊,模型進(jìn)一步提升了 2.6%。

通過(guò)以上技術(shù)方案的優(yōu)化,我們最終提交的成績(jī)中 Recall、Precision 和 F1 Score 分別達(dá)到了 97.68%、97.79% 97.74%,這 3 個(gè)評(píng)價(jià)指標(biāo)均排名第一。

此外,我們還在語(yǔ)言糾錯(cuò)模型、loss 和訓(xùn)練策略的選擇上進(jìn)行了一些方案的探索,給最終模型效果帶來(lái)了一定的提升。

2.1 CRNN 模型簡(jiǎn)介

圖 2:CRNN 架構(gòu)圖。

對(duì)于文本識(shí)別模型,我們參照 CRNN 將模型的主體分為了兩個(gè)部分,分別為對(duì)圖像數(shù)據(jù)進(jìn)行特征編碼的 Encoder (對(duì)應(yīng)上圖中的 CNN 層) 和對(duì)文本序列進(jìn)行解碼的 Decoder (對(duì)應(yīng)上圖中 Recurrent Layers 和 Transcription Layers)。

對(duì)于 Encoder,我們?cè)囼?yàn)了當(dāng)前 OCR 技術(shù)中主流的 MobileNet [8]、EfficientNet [9]、ResNet [10] 等,最終選擇了在表現(xiàn)與參數(shù)量方面都出色的 ResNet,并對(duì)不同層的 ResNet 進(jìn)行了實(shí)驗(yàn)。

對(duì)于 Decoder,其可進(jìn)一步分為對(duì)圖像切片序列到文本序列進(jìn)行轉(zhuǎn)換的部分與對(duì)文本序列進(jìn)行解碼輸出的部分。對(duì)于第一部分,我們實(shí)驗(yàn)了當(dāng)前主流的序列模型,如 Transformer [11]、LSTM [12] 等。最終,我們選擇了在表現(xiàn)與穩(wěn)定性方面都更為出色的 BiLSTM [13]。不同于普通的 LSTM,BiLSTM 可以捕捉序列雙向的文本信息,該特性與本次比賽數(shù)據(jù)所呈現(xiàn)出的富有語(yǔ)義的特點(diǎn)相吻合。

對(duì)于 Decode 的第二部分,我們實(shí)驗(yàn)了 CTC [14] 與受時(shí)下熱門 Transformer 等模型啟發(fā)所推出的 Attention [15] 這兩種方式。通過(guò)實(shí)驗(yàn)結(jié)果,我們發(fā)現(xiàn)了 CTC 在長(zhǎng)文本情況下的表現(xiàn)較為出色,而 Attention 對(duì)于短文本的處理表現(xiàn)得更為優(yōu)異。

針對(duì)本次比賽數(shù)據(jù)文本長(zhǎng)度分布方差大的特點(diǎn),我們分別嘗試了 CTC 與 Attention 兩種模型。

2.2 模型優(yōu)化

2.2.1 數(shù)據(jù)預(yù)處理

本次比賽的數(shù)據(jù)為文本行圖像,其中每條數(shù)據(jù)的尺寸都有所不同。為此,我們對(duì)所有圖像的尺寸進(jìn)行對(duì)齊以保證模型輸入的一致性。通過(guò)對(duì)整體數(shù)據(jù)集的尺寸分布進(jìn)行分析,我們實(shí)驗(yàn)了不同的圖像寬高以及 Resize 和 Padding 兩種不同的對(duì)齊操作。最終采用 Padding 對(duì)齊方式,模型的 F1 score 提升 3.2%。

2.2.2 模型前置預(yù)處理模塊

本次比賽的圖像數(shù)據(jù)具有模糊、對(duì)比度低等特點(diǎn)。為此,我們通過(guò)對(duì)圖像進(jìn)行增強(qiáng)以保證網(wǎng)絡(luò)輸入圖像的清晰性。我們選擇使用 U-Net [16] 網(wǎng)絡(luò)以自動(dòng)地學(xué)習(xí)出適應(yīng)于整體模型的圖像增強(qiáng)方式。通過(guò)與傳統(tǒng)的圖像顯著化以及超分辨率網(wǎng)絡(luò)等方法的對(duì)比試驗(yàn),采用的 U-Net 能自適應(yīng)的學(xué)習(xí)出適合網(wǎng)絡(luò)學(xué)習(xí)的圖像增強(qiáng)方式。

圖 3:U-Net 示意圖。

此外,本次比賽的部分圖像在文本行處呈現(xiàn)出了傾斜的特質(zhì)。相較于水平文本,傾斜文本的識(shí)別更具有挑戰(zhàn)性。

針對(duì)這一情況,我們采用了針對(duì)傾斜文本進(jìn)行處理的 TPS 網(wǎng)絡(luò) [17]。該網(wǎng)絡(luò)可以預(yù)測(cè)出 TPS 矯正所需的 K 個(gè)基準(zhǔn)點(diǎn),并基于基準(zhǔn)點(diǎn)進(jìn)行 TPS 變換生成采樣網(wǎng)格,最后對(duì)采樣網(wǎng)格進(jìn)行雙線性插值,達(dá)到矯正文本的目的。

圖 4:TPS 示意圖。

最終,輸入圖像數(shù)據(jù)在經(jīng)過(guò)了 U-Net 自適應(yīng)增強(qiáng)和 TPS 的矯正后,模型 F1 score 提升 2.6%。

2.2.3 loss 選擇

針對(duì)文本識(shí)別任務(wù)形近字很難識(shí)別出來(lái)的問(wèn)題,如 "0" 和 "O"。我們采取了 Center Loss [18],該損失函數(shù)可通過(guò)縮小各分類編碼與其所屬類別中心的距離以更好地對(duì)相似的類別作出區(qū)分。使用 Center Loss 后,模型 F1 score 提升 0.6%。

2.2.4 優(yōu)化器選擇

如上文所述,文本行識(shí)別模型由多個(gè)部分組成,同時(shí)每個(gè)部分的學(xué)習(xí)任務(wù)從數(shù)據(jù)領(lǐng)域 (圖像 / 文本) 到數(shù)據(jù)格式 (單條 / 序列) 都有較大的差別。

為此,我們選用了自適應(yīng)優(yōu)化器 Adadelta [19] 來(lái)解決。在模型使用 Adadelta 訓(xùn)練到收斂后,在凍結(jié)了圖像處理的 Encoder 參數(shù)的情況下,使用收斂較快的 Adam [20] 對(duì) Decoder 部分的參數(shù)進(jìn)行進(jìn)一步的訓(xùn)練。使用上述策略后模型 F1 score 提升 0.3%。

2.3 超大規(guī)模數(shù)據(jù)集預(yù)訓(xùn)練模型訓(xùn)練

本次比賽中我們除了使用官方給出的 33626 張訓(xùn)練集之外,還通過(guò)對(duì)各種字體、各個(gè)語(yǔ)料類別 (數(shù)字 / 名稱 / 語(yǔ)句) 以及各個(gè)圖片風(fēng)格 (磨損 / 傾斜 / 劃線) 的模擬,生成了數(shù)據(jù)集 5000 萬(wàn)張,使用 20 張 V100 顯卡進(jìn)行分布式訓(xùn)練?;谠擃A(yù)訓(xùn)練模型進(jìn)行 finetune,模型 F1 score 得到了大幅提升 (5.4%),這也是本次比賽我們?nèi)〉霉谲姷年P(guān)鍵。

2.4 語(yǔ)言糾錯(cuò)模型

首先,我們?nèi)诤嫌?xùn)練 attention 模型和 ctc 模型。對(duì)于置信度較低的結(jié)果,我們認(rèn)為識(shí)別錯(cuò)誤的可能性較大,需要使用語(yǔ)言模型對(duì)其糾錯(cuò)。通過(guò) 2.5 的 badcase 分析,我們可以看出,除了空格識(shí)別錯(cuò)誤外,還有約 56% 的其它錯(cuò)誤。因此,我們額外訓(xùn)練了一個(gè)不含有空格的 attention 識(shí)別模型,并使用該模型的識(shí)別結(jié)果替換原有融合模型置信度較低的識(shí)別結(jié)果,盡可能避免空格對(duì)識(shí)別的干擾。

然后,我們對(duì) soft-masked bert [21] 進(jìn)行了拓展,在 Bi-GRU [22] 錯(cuò)誤檢測(cè)網(wǎng)絡(luò)中除了預(yù)測(cè)每個(gè)字符為錯(cuò)別字的概率外,還額外增加了該字符后需要添加字符的概率。若預(yù)測(cè)為錯(cuò)誤,我們會(huì)根據(jù)概率將該字符的 embedding 與 < mask > 的 embedding 進(jìn)行線性組合。若預(yù)測(cè)為添加,則會(huì)在該字符后直接添加 < mask > 的 embedding。在 bert 糾錯(cuò)網(wǎng)絡(luò)中,我們添加了 < null > 標(biāo)簽用于標(biāo)識(shí)需要?jiǎng)h除的字符。

最后,我們基于 badcase 的分析生成了 100 萬(wàn)的訓(xùn)練數(shù)據(jù),使用上述策略后,F(xiàn)1 score 提升了 0.7%。

圖 5:soft-masked bert 示意圖。

2.5 badcase 分析

通過(guò)采用 2.1~2.4 的策略,我們的模型已經(jīng)有了很大的提升。通過(guò)對(duì)驗(yàn)證集上的 badcase 分析,發(fā)現(xiàn)主要有如下幾種:空格識(shí)別錯(cuò)誤、等長(zhǎng)樣本識(shí)別錯(cuò)誤和不等長(zhǎng)樣本識(shí)別錯(cuò)誤。各錯(cuò)誤占比情況如下圖 6,其中空格識(shí)別錯(cuò)誤占比達(dá)到了 44%,其余兩種錯(cuò)誤分別是等長(zhǎng)和不等長(zhǎng)錯(cuò)誤。以下對(duì)上述情形分別介紹并給出我們的解決方案。

圖 6:badcase 分布圖。

第一,空格識(shí)別錯(cuò)誤即模型沒(méi)有將空格識(shí)別正確或者我們空格識(shí)別成其他字符,如下圖。針對(duì)該情形我們?nèi)藶榈貫檎Z(yǔ)料賦予了很多空格。同時(shí),為了解決空格距離的主觀性,我們?cè)谕Z(yǔ)料中插入空格時(shí)使用了不定長(zhǎng)的空格以讓模型學(xué)會(huì)對(duì)空格距離的把控。

此外,我們統(tǒng)計(jì)了模型預(yù)測(cè)空格錯(cuò)誤結(jié)果中空格前后的字符分布,并根據(jù)該分布控制空格在語(yǔ)料中插入的位置。

圖 7:空格識(shí)別示例。

第二,等長(zhǎng)錯(cuò)誤即模型識(shí)別出來(lái)的結(jié)果與 GT 等長(zhǎng),但是存在部分字符識(shí)別錯(cuò)誤情形,占比達(dá)總識(shí)別錯(cuò)誤的 33%,這類錯(cuò)誤主要還是集中在形近字很難正確識(shí)別情形,如下圖。GT 為 “1 Small Cone”,我們的模型識(shí)別為 “1 Small C0ne”。

為了解決這類成對(duì)的字符預(yù)測(cè)錯(cuò)誤,我們統(tǒng)計(jì)了字符集合中常見(jiàn)的難區(qū)分字符對(duì)以及我們的模型所預(yù)測(cè)錯(cuò)誤的字符對(duì)。通過(guò)成對(duì)的形式,我們將一條語(yǔ)料中的部分字符替換為其難分字符對(duì)中的字符,如 "a0c" 與 "aOc",并將替換前與替換后的語(yǔ)料都加入我們的數(shù)據(jù)集中。

通過(guò)成對(duì)地加入難區(qū)分字符語(yǔ)料,我們的模型預(yù)測(cè)結(jié)果大幅減少了字符分錯(cuò)的情況。此外,我們發(fā)現(xiàn)由于本次數(shù)據(jù)的文本行在裁剪時(shí)左右留白較少,這導(dǎo)致模型預(yù)測(cè)結(jié)果容易在開(kāi)頭與結(jié)尾處出錯(cuò)。為此,我們?cè)谶x取替換字符時(shí)會(huì)加大開(kāi)頭與結(jié)尾位置的權(quán)重。

圖 8:等長(zhǎng)識(shí)別錯(cuò)誤。

第三,不等長(zhǎng)錯(cuò)誤即模型識(shí)別出來(lái)的結(jié)果與 GT 不等長(zhǎng)。這里面主要集中在標(biāo)注錯(cuò)誤、文本行過(guò)長(zhǎng)和樣本極不均衡導(dǎo)致。

針對(duì)文本行過(guò)長(zhǎng)問(wèn)題,我們對(duì)部分語(yǔ)料選取少量字符進(jìn)行人為的重復(fù)并輸入到模型訓(xùn)練,以此讓模型獲得一定的去重能力。

針對(duì)類別不均衡問(wèn)題,我們?cè)谏烧Z(yǔ)料抽取字符時(shí),對(duì)低頻字符賦予了更大的權(quán)重,高低頻字符的出現(xiàn)比率提升到了 10:1,更符合實(shí)際環(huán)境下的語(yǔ)料情況。

3 總結(jié)與展望

計(jì)算機(jī)視覺(jué)在金融領(lǐng)域的應(yīng)用主要包括人臉識(shí)別、活體檢測(cè)、OCR、AI 數(shù)字人和圖像篡改等。通過(guò)本次挑戰(zhàn)賽在某種程度上驗(yàn)證了我們 OCR 算法的有效性,以及對(duì)我們現(xiàn)有算法進(jìn)行查漏補(bǔ)缺。

目前 OCR 在 360 數(shù)科內(nèi)部落地的業(yè)務(wù)場(chǎng)景主要包括學(xué)歷認(rèn)證、執(zhí)業(yè)證書認(rèn)證、票據(jù)識(shí)別、行駛證識(shí)別、駕駛證識(shí)別和營(yíng)業(yè)執(zhí)照等,還針對(duì)上述業(yè)務(wù)場(chǎng)景開(kāi)發(fā)了配套的圖像反欺詐識(shí)別算法。展望未來(lái),計(jì)算機(jī)視覺(jué)團(tuán)隊(duì)將持續(xù)跟進(jìn)業(yè)內(nèi)最新動(dòng)態(tài)以保持技術(shù)的先進(jìn)性,來(lái)更好的服務(wù)公司業(yè)務(wù)團(tuán)隊(duì)。

4 引用

[1] Huang Z, Chen K, He J, et al. Icdar2019 competition on scanned receipt ocr and information extraction [C]//2019 International Conference on Document Analysis and Recognition (ICDAR). IEEE, 2019: 1516-1520.

[2] Y. Sun, J. Liu, W. Liu, J. Han, E. Ding, “Chinese Street View Text: Large-scale Chinese Text Reading with Partially Supervised Learning”, in Proc. of ICCV 2019.

[3] Ali Furkan Biten, Ruben Tito, Andres Mafla, Lluis Gomez, Mar?al Rusi?ol, Ernest Valveny, C.V. Jawahar, Dimosthenis Karatzas, "Scene Text Visual Question Answering", ICCV 2019.

[4] C. Chng, Y. Liu, Y. Sun, et al, “ICDAR 2019 Robust Reading Challenge on Arbitrary-Shaped Text-RRC-ArT”, in Proc. of ICDAR 2019.

[5] Zhang R, Zhou Y, Jiang Q, et al. Icdar 2019 robust reading challenge on reading chinese text on signboard [C]//2019 international conference on document analysis and recognition (ICDAR). IEEE, 2019: 1577-1581.

[6] Nayef N, Patel Y, Busta M, et al. ICDAR2019 robust reading challenge on multi-lingual scene text detection and recognition—RRC-MLT-2019 [C]//2019 International conference on document analysis and recognition (ICDAR). IEEE, 2019: 1582-1587.

[7] Shi, Baoguang, Xiang Bai, and Cong Yao. "An end-to-end trainable neural network for image-based sequence recognition and its application to scene text recognition." IEEE transactions on pattern analysis and machine intelligence 39.11 (2016): 2298-2304.

[8] Howard A G, Zhu M, Chen B, et al. Mobilenets: Efficient convolutional neural networks for mobile vision applications [J]. arXiv preprint arXiv:1704.04861, 2017.

[9] Tan M, Le Q. Efficientnet: Rethinking model scaling for convolutional neural networks [C]//International conference on machine learning. PMLR, 2019: 6105-6114.

[10] He, Kaiming, et al. "Deep residual learning for image recognition." Proceedings of the IEEE conference on computer vision and pattern recognition. 2016.

[11] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need [J]. Advances in neural information processing systems, 2017, 30.

[12] Graves A. Long short-term memory [J]. Supervised sequence labelling with recurrent neural networks, 2012: 37-45.

[13] Zhang, Shu, et al. "Bidirectional long short-term memory networks for relation classification." Proceedings of the 29th Pacific Asia conference on language, information and computation. 2015.

[14] Graves A. Connectionist temporal classification [M]//Supervised sequence labelling with recurrent neural networks. Springer, Berlin, Heidelberg, 2012: 61-93.

[15] Sun, Chao, et al. "A convolutional recurrent neural network with attention framework for speech separation in monaural recordings." Scientific Reports 11.1 (2021): 1-14.

[16] Ronneberger, Olaf, Philipp Fischer, and Thomas Brox. "U-net: Convolutional networks for biomedical image segmentation." International Conference on Medical image computing and computer-assisted intervention. Springer, Cham, 2015.

[17] Shi, Baoguang, et al. "Robust scene text recognition with automatic rectification." Proceedings of the IEEE conference on computer vision and pattern recognition. 2016.

[18] Wen, Yandong, et al. "A discriminative feature learning approach for deep face recognition." European conference on computer vision. Springer, Cham, 2016.

[19] Zeiler, Matthew D. "Adadelta: an adaptive learning rate method." arXiv preprint arXiv:1212.5701 (2012).

[20] Kingma D P, Ba J. Adam: A method for stochastic optimization [J]. arXiv preprint arXiv:1412.6980, 2014.

[21] Zhang S, Huang H, Liu J, et al. Spelling error correction with soft-masked BERT [J]. arXiv preprint arXiv:2005.07421, 2020.

[22] Wang Q, Xu C, Zhou Y, et al. An attention-based Bi-GRU-CapsNet model for hypernymy detection between compound entities [C]//2018 IEEE International Conference on Bioinformatics and Biomedicine (BIBM). IEEE, 2018: 1031-1035

以上就是關(guān)于pos機(jī)刷卡小票到底要保留多久,360數(shù)科OCR國(guó)際技術(shù)競(jìng)賽冠軍的知識(shí),后面我們會(huì)繼續(xù)為大家整理關(guān)于pos機(jī)刷卡小票到底要保留多久的知識(shí),希望能夠幫助到大家!

轉(zhuǎn)發(fā)請(qǐng)帶上網(wǎng)址:http://www.afbey.com/newsone/66092.html

你可能會(huì)喜歡:

版權(quán)聲明:本文內(nèi)容由互聯(lián)網(wǎng)用戶自發(fā)貢獻(xiàn),該文觀點(diǎn)僅代表作者本人。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如發(fā)現(xiàn)本站有涉嫌抄襲侵權(quán)/違法違規(guī)的內(nèi)容, 請(qǐng)發(fā)送郵件至 babsan@163.com 舉報(bào),一經(jīng)查實(shí),本站將立刻刪除。