0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

【服務(wù)器數(shù)據(jù)恢復(fù)】斷電導(dǎo)致服務(wù)器無(wú)法進(jìn)入系統(tǒng)的數(shù)據(jù)恢復(fù)案例

Frombyte ? 來(lái)源:Frombyte ? 作者:Frombyte ? 2023-03-14 11:11 ? 次閱讀

服務(wù)器數(shù)據(jù)恢復(fù)環(huán)境:
品牌ProLiant DL系列服務(wù)器,
6塊SAS硬盤(pán)組成RAID5磁盤(pán)陣列,
WINDOWS SERVER操作系統(tǒng),
存儲(chǔ)了企業(yè)的內(nèi)部文件。

服務(wù)器故障&分析:
服務(wù)器在發(fā)生故障前有過(guò)幾次意外斷電,每次斷電重啟后沒(méi)有出現(xiàn)異常。直到最后一次斷電重啟沒(méi)有成功,RAID報(bào)錯(cuò),提示無(wú)法找到存儲(chǔ)設(shè)備。進(jìn)入RAID管理模塊,執(zhí)行任何操作就死機(jī)。管理員多次重啟服務(wù)器后還是無(wú)法成功進(jìn)入操作系統(tǒng)。
通常服務(wù)器出現(xiàn)這類故障,有很大的可能性是因?yàn)橐馔鈹嚯妼?dǎo)致RAID模塊損壞(RAID管理信息丟失或RAID模塊硬件損壞)。RAID陣列創(chuàng)建完成后,管理模塊信息就會(huì)固定下來(lái)不會(huì)再發(fā)生變化。但是raid陣列的模塊信息畢竟不是只讀的,也是可以修改的,而意外斷電就可能導(dǎo)致模塊信息被篡改或者丟失,多次斷電甚至可能導(dǎo)致RAID卡元器件損壞,服務(wù)器失去對(duì)多塊物理硬盤(pán)進(jìn)行RAID管理的中間層模塊。根據(jù)本案例服務(wù)器的故障表現(xiàn),北亞企安數(shù)據(jù)恢復(fù)工程師初步判斷故障原因就是RAID卡硬件損壞,如果是這種情況,通過(guò)常規(guī)方法無(wú)法獲取6塊磁盤(pán)中的數(shù)據(jù)。

服務(wù)器數(shù)據(jù)恢復(fù)過(guò)程:
1、經(jīng)過(guò)物理故障檢測(cè)發(fā)現(xiàn)故障服務(wù)器內(nèi)的所有硬盤(pán)均可以正常讀取,無(wú)物理故障。
2、編號(hào)后將故障服務(wù)器內(nèi)的所有硬盤(pán)以只讀方式進(jìn)行鏡像備份,鏡像完成后將所有硬盤(pán)按照編號(hào)還原到故障服務(wù)器中。后續(xù)的數(shù)據(jù)分析和數(shù)據(jù)恢復(fù)操作都基于鏡像文件進(jìn)行,避免對(duì)原始數(shù)據(jù)造成二次破壞。
3、基于鏡像文件,北亞企安數(shù)據(jù)恢復(fù)工程師分析故障服務(wù)器中raid5磁盤(pán)陣列結(jié)構(gòu),確定raid陣列的硬盤(pán)順序、數(shù)據(jù)塊大小、陣列校驗(yàn)方式等raid相關(guān)信息。
4、利用獲取到的raid陣列信息虛擬重構(gòu)raid陣列并進(jìn)行邏輯校驗(yàn),確保重構(gòu)RAID各項(xiàng)參數(shù)正確無(wú)誤后驗(yàn)證重要數(shù)據(jù)。
5、經(jīng)過(guò)數(shù)據(jù)恢復(fù)工程師驗(yàn)證后沒(méi)有發(fā)現(xiàn)異常,讓管理員親自驗(yàn)證無(wú)問(wèn)題后將數(shù)據(jù)遷移到提前準(zhǔn)備好的環(huán)境中,本次數(shù)據(jù)恢復(fù)工作完成。

服務(wù)器數(shù)據(jù)安全Tips:
1、盡量保證機(jī)房供電穩(wěn)定,重要設(shè)備配備UPS,以減少供電異常影響服務(wù)器及存儲(chǔ)的正常工作。
2、應(yīng)定期對(duì)老舊設(shè)備進(jìn)行安全檢查,評(píng)估老舊設(shè)備的運(yùn)行狀態(tài),評(píng)估是否需要對(duì)老舊設(shè)備進(jìn)行硬件升級(jí)或者系統(tǒng)升級(jí)。
3、提前制定突發(fā)事件應(yīng)急處理方案,以降低異常斷電帶來(lái)的損失。

審核編輯黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    服務(wù)器數(shù)據(jù)恢復(fù)—意外斷電導(dǎo)致虛擬機(jī)虛擬磁盤(pán)損壞的數(shù)據(jù)恢復(fù)案例

    服務(wù)器數(shù)據(jù)恢復(fù)環(huán)境: 一臺(tái)服務(wù)器中有一組由4塊STAT硬盤(pán)通過(guò)RAID卡組建的RAID10陣列,上層是XenServer虛擬化平臺(tái),虛擬機(jī)安裝Windows Server操作
    的頭像 發(fā)表于 09-10 17:25 ?155次閱讀
    <b class='flag-5'>服務(wù)器</b><b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>恢復(fù)</b>—意外<b class='flag-5'>斷電導(dǎo)致</b>虛擬機(jī)虛擬磁盤(pán)損壞的<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>恢復(fù)</b>案例

    服務(wù)器數(shù)據(jù)恢復(fù)—異常斷電導(dǎo)致RAID信息丟失的數(shù)據(jù)恢復(fù)案例

    屬于可修改信息,一次或多次的意外斷電可能會(huì)導(dǎo)致這部分信息被篡改或丟失。斷電次數(shù)過(guò)多甚至?xí)?b class='flag-5'>導(dǎo)致raid卡上的元損壞。
    的頭像 發(fā)表于 07-01 11:21 ?206次閱讀

    服務(wù)器數(shù)據(jù)恢復(fù)—異常斷電導(dǎo)致存儲(chǔ)癱瘓的數(shù)據(jù)恢復(fù)案例

    系統(tǒng)盤(pán)是統(tǒng)一大小,數(shù)據(jù)盤(pán)大小不確定,數(shù)據(jù)盤(pán)是精簡(jiǎn)模式。 服務(wù)器存儲(chǔ)故障: 機(jī)房斷電導(dǎo)致服務(wù)器
    的頭像 發(fā)表于 06-25 13:41 ?216次閱讀
    <b class='flag-5'>服務(wù)器</b><b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>恢復(fù)</b>—異常<b class='flag-5'>斷電導(dǎo)致</b>存儲(chǔ)癱瘓的<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>恢復(fù)</b>案例

    服務(wù)器數(shù)據(jù)恢復(fù)—VMware虛擬機(jī)無(wú)法啟動(dòng)的數(shù)據(jù)恢復(fù)案例

    服務(wù)器數(shù)據(jù)恢復(fù)環(huán)境: 某品牌EVA某型號(hào)存儲(chǔ)中部署VMware ESXi虛擬化平臺(tái),數(shù)據(jù)盤(pán)(精簡(jiǎn)模式)+快照數(shù)據(jù)盤(pán),虛擬機(jī)中有mysql
    的頭像 發(fā)表于 05-06 13:26 ?321次閱讀

    服務(wù)器數(shù)據(jù)恢復(fù)—異常斷電導(dǎo)致RAID管理信息丟失的數(shù)據(jù)恢復(fù)案例

    使用。 服務(wù)器故障: 機(jī)房供電幾次意外中斷,服務(wù)器出現(xiàn)故障前最后一次異常斷電重啟后RAID報(bào)錯(cuò),提示無(wú)法找到存儲(chǔ)設(shè)備,進(jìn)入RAID管
    的頭像 發(fā)表于 04-30 15:34 ?252次閱讀

    服務(wù)器數(shù)據(jù)恢復(fù)—異常斷電導(dǎo)致服務(wù)器raid卡硬件損壞的數(shù)據(jù)恢復(fù)案例

    使用,所以未引起管理員的注意。后續(xù)出現(xiàn)的多次異常斷電導(dǎo)致raid報(bào)錯(cuò),服務(wù)器無(wú)法找到存儲(chǔ)設(shè)備,進(jìn)入raid管理模塊進(jìn)行任何操作都會(huì)導(dǎo)致操作
    的頭像 發(fā)表于 03-20 17:38 ?567次閱讀

    服務(wù)器數(shù)據(jù)恢復(fù)—分享幾個(gè)服務(wù)器數(shù)據(jù)恢復(fù)的案例

    服務(wù)器數(shù)據(jù)恢復(fù)案例之服務(wù)器raid6中3個(gè)磁盤(pán)離線導(dǎo)致陣列崩潰的數(shù)據(jù)
    的頭像 發(fā)表于 03-04 13:21 ?864次閱讀

    服務(wù)器數(shù)據(jù)恢復(fù)-異常斷電導(dǎo)致服務(wù)器故障的數(shù)據(jù)恢復(fù)案例

    服務(wù)器數(shù)據(jù)恢復(fù)環(huán)境: dell某型號(hào)服務(wù)器中有一組通過(guò)raid卡組建的raid10,該raid陣列中一共有4塊磁盤(pán)。上層部署XenServer虛擬化平臺(tái),作為網(wǎng)站
    的頭像 發(fā)表于 02-28 15:15 ?720次閱讀
    <b class='flag-5'>服務(wù)器</b><b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>恢復(fù)</b>-異常<b class='flag-5'>斷電導(dǎo)致</b><b class='flag-5'>服務(wù)器</b>故障的<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>恢復(fù)</b>案例

    服務(wù)器數(shù)據(jù)恢復(fù)斷電導(dǎo)致服務(wù)器RAID信息丟失的數(shù)據(jù)恢復(fù)案例

    故障之前出現(xiàn)過(guò)幾次意外斷電的情況,服務(wù)器斷電重啟后沒(méi)有發(fā)現(xiàn)異常,直到最后一次斷電重啟后RAID報(bào)錯(cuò):“無(wú)法找到存儲(chǔ)設(shè)備”,
    的頭像 發(fā)表于 02-18 13:53 ?509次閱讀

    服務(wù)器數(shù)據(jù)恢復(fù)—非正常關(guān)機(jī)導(dǎo)致服務(wù)器文件丟失的數(shù)據(jù)恢復(fù)案例

    服務(wù)器數(shù)據(jù)恢復(fù)環(huán)境: 某品牌PowerEdge R730服務(wù)器+PowerVault MD3200存儲(chǔ),劃分若干lun,操作系統(tǒng)版本是ce
    的頭像 發(fā)表于 01-19 13:42 ?338次閱讀

    服務(wù)器數(shù)據(jù)恢復(fù)服務(wù)器遷移數(shù)據(jù)時(shí)數(shù)據(jù)損壞的數(shù)據(jù)恢復(fù)案例

    服務(wù)器數(shù)據(jù)恢復(fù)環(huán)境&服務(wù)器故障: 一臺(tái)安裝Windows操作系統(tǒng)服務(wù)器。工作人員在遷移該
    的頭像 發(fā)表于 01-16 13:19 ?712次閱讀

    【北亞服務(wù)器數(shù)據(jù)恢復(fù)】ZFS文件系統(tǒng)服務(wù)器RAIDZ數(shù)據(jù)恢復(fù)案例

    服務(wù)器數(shù)據(jù)恢復(fù)環(huán)境: 服務(wù)器中有32塊硬盤(pán),組建了3組RAIDZ,部分磁盤(pán)作為熱備盤(pán)。zfs文件系統(tǒng)。
    的頭像 發(fā)表于 12-28 15:17 ?458次閱讀
    【北亞<b class='flag-5'>服務(wù)器</b><b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>恢復(fù)</b>】ZFS文件<b class='flag-5'>系統(tǒng)</b><b class='flag-5'>服務(wù)器</b>RAIDZ<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>恢復(fù)</b>案例

    服務(wù)器斷電導(dǎo)致raid模塊損壞的數(shù)據(jù)恢復(fù)案例

    服務(wù)器數(shù)據(jù)恢復(fù)環(huán)境: 服務(wù)器有一組由12塊硬盤(pán)組建的raid5陣列。 服務(wù)器故障&分析: 機(jī)房供電不穩(wěn)
    的頭像 發(fā)表于 12-25 14:29 ?426次閱讀