不請自來~

這裡有一份關於新型冠狀數據集合集,請笑納~

  • 丁香園新型冠狀病毒(COVID-19)疫情時間序列數據集

該數據集為熱心網友爬取更新至和鯨社區的丁香園數據,包括中國地區精確至地級市的數據,港澳臺/西藏的數據精確度僅到省級。可以練習結構化數據處理、時間序列、可視化等;另外,該數據集還包含新聞以及謠言的語料庫,適合做NLP的同學細品~

此外,還有國際版的ncov數據集,包含了從2020年1月22日起世界各地每日關於2019年新型冠狀病毒感染病例數、死亡人數和恢復情況的信息:

  • 2019新型冠狀病毒(COVID-19)世界範圍傳播數據

以及國際版的輿情數據:

  • 新型冠狀病毒(2019-nCoV)在Twitter上相關的推特數據

據義大利 29 日公佈的信息,義大利24小時新增新冠肺炎確診病例5217例。累計確診97689例,死亡新增 756 例,累計死亡病例10779例,累計治癒13030例。以下數據集最後更新時間為 3 月 29 日:

  • 義大利2019新型冠狀病毒COVID-19數據

光說不練假把式,我們還找來了世界國家及地區的坐標數據集,以及中國各地區坐標數據集。無論是對此次疫情的可視化,還是其他國家/城市相關的地理數據的可視化,都十分有用。(搭配各類地圖可視化的庫,就可畫出炫酷的地圖可視化。)

  • 中國坐標數據集
  • 世界坐標數據集

什麼?有了數據集也不會用?行...也不是沒有辦法,這就上課代表作業給你抄抄!

課代表作業【1】:

  • 【武漢加油】基於Pyecharts的疫情數據可視化~

  • 2019新型冠狀病毒(2019-nCoV)數據地圖可視化

分析時間比較早,非實時疫情可視化數據圖

課代表作業【2】:

  • 2019-nCoV疫情可視化

分析時間比較早,非實時疫情可視化數據圖

另外,我們發現大家習慣把這一次新型冠狀病毒和SARS做比較,所以我們十分努力地從2003年並不發達的互聯網中,「考古」出了一些數據集:

  • 嚴重急性呼吸系統綜合症SARS數據集

這個數據記錄了2003年SARS疫情世界各個國家總計確診/治癒/死亡數據,還有首例確診時間、患病者平均年齡等相關數據,並且自帶地理位置數據。

發佈於 2020-03-30繼續瀏覽內容知乎發現更大的世界打開Chrome繼續葉山Shan Ye葉山Shan Ye?

地質學話題下的優秀答主

我一月底做了一個疫情匯總的網頁地圖(https://zhuanlan.zhihu.com/p/104024595),之後就不斷有人問我數據是怎麼搞到的。我是寫了一個爬蟲去抓的丁香園和JHU/Esri地圖背後的數據。類似的方法知乎上已經有很多教程。不過問我的人裡面有好幾個都很謙虛,說自己是『新手』,想用更簡單的方法來試試。所以這裡借個樓,介紹一種對真的新手比較友好的方法,用Python獲取全球疫情數據。

這個方法很簡單,但也比較有侷限性,老手、高手們可以散退了。建議在Jupyter裡面寫。Jupyter安裝和設置詳見:https://zhuanlan.zhihu.com/p/32320214。如果一句代碼都沒寫過,只要你裝對了Jupyter,也可以直接把最後的完整代碼粘過去用,修改一下國名、日期、統計類別等參數就行了。

數據來源:https://github.com/RamiKrispin/coronavirus,每天自動更新,JHU的那個地圖的數據來源和這個相同。

首先,我們需要獲取原始數據。原始數據為csv格式,一共7列,分別是省/州、國家、經緯度、日期,數量和類別。其中類別分為確診、死亡和治癒3種。大概長這樣:

簡單起見,省/州這一列就先去掉了(省/州級別的數據整理得很亂,而且經常會變)。

代碼:

import pandas as pd
import numpy as np

def covidGet():
#獲取數據並去掉第一列
df = pd.read_csv(https://raw.githubusercontent.com/RamiKrispin/coronavirus-csv/master/coronavirus_dataset.csv,
names=["province", country, lat, long, date, cases, type], skiprows=1, parse_dates=[date])
return df

現在如果你跑一下all_data = covidGet(),就能得到一個包含了所有數據的數據框。這個格式很難用,所以我們需要把它整理一下,至少要把不同的國家和種類的數據給分開。所以我們需要給covidGet()添加兩個新參數:

import pandas as pd
import numpy as np

#需要輸入查詢國家,以及統計類別。如果統計類別為空,則默認為全都要。
#統計的類型為一個list
def covidGet(country=None, stat=[confirmed, death, recovered]):
#獲取數據並去掉第一列
df = pd.read_csv(https://raw.githubusercontent.com/RamiKrispin/coronavirus-csv/master/coronavirus_dataset.csv,
names=["province", country, lat, long, date, cases, type], skiprows=1, parse_dates=[date])
#根據統計類別來切割數據框
df = df[df.type.isin(stat)]
#處理國家
#如果輸入的國名不在數據裏,報錯;如果在,根據國名來切割數據框
if country is not None:
if country not in df.country.values:
print("Country {} not found".format(country))
df = df[df.country == str(country)]
df = df.pivot_table(index=["date", country], columns=type, values=cases,
aggfunc={date:first, country:first, cases:np.sum})
.reset_index().fillna(0)
#如果死亡為空,則設為0
if death not in df.columns:
df[death] = 0
#如果治癒為空,則設為0
if recovered not in df.columns:
df[recovered] = 0
return df

接下來,處理日期。這個數據的起點日期是2022年1月22日,一直持續至今,每日更新。我們可以加兩個參數date1和date2,來選取自己想要的時間段。默認情況下可以不輸入這兩個參數,此時會返回所有日期的數據:

import pandas as pd
import numpy as np

#需要輸入查詢國家,以及統計類別。如果統計類別為空,則默認為全都要。
#統計的類型為一個list
def covidGet(country=None, date1=None, date2=None, stat=[confirmed, death, recovered]):
#獲取數據並去掉第一列
df = pd.read_csv(https://raw.githubusercontent.com/RamiKrispin/coronavirus-csv/master/coronavirus_dataset.csv,
names=["province", country, lat, long, date, cases, type], skiprows=1, parse_dates=[date])
#根據統計類別來切割數據框
df = df[df.type.isin(stat)]
#如果只有開始時間,沒有截止時間,則默認截止時間為當天,切割數據框
if date1 is not None and date2 is None:
df = df[df.date &>= date1]
#如果沒有開始時間,只有截止時間,則默認開始時間為數據的第一天,切割資料庫
elif date2 is not None and date1 is None:
df = df[df.date &<= date2] #如果都有,則按起止時間切割數據框 elif date1 is not None and date2 is not None: df = df[df.date &<= date2] df = df[df.date &>= date1]
#處理國家
#如果輸入的國名不在數據裏,報錯;如果在,根據國名來切割數據框
if country is not None:
if country not in df.country.values:
print("Country {} not found".format(country))
df = df[df.country == str(country)]
df = df.pivot_table(index=["date", country], columns=type, values=cases,
aggfunc={date:first, country:first, cases:np.sum})
.reset_index().fillna(0)
#如果死亡為空,則設為0
if death not in df.columns:
df[death] = 0
#如果治癒為空,則設為0
if recovered not in df.columns:
df[recovered] = 0
#根據時間來給數據排序
df.sort_values(by=[country, date], inplace=True)
return df

最後一步,原始數據裡面是每天的新增確診、新增死亡和新增治癒數據,有時候我們需要看累計,因此我們可以再加一個cum選項,計算累計病例。默認情況下會返回每日新增數據,如果cum被設為True則會返回累計數據:

import pandas as pd
import numpy as np

#需要輸入查詢國家,以及統計類別。如果統計類別為空,則默認為全都要。
#統計的類型為一個list
def covidGet(country=None, date1=None, date2=None, stat=[confirmed, death, recovered], cum=False):
#獲取數據並去掉第一列
df = pd.read_csv(https://raw.githubusercontent.com/RamiKrispin/coronavirus-csv/master/coronavirus_dataset.csv,
names=["province", country, lat, long, date, cases, type], skiprows=1, parse_dates=[date])
#根據統計類別來切割數據框
df = df[df.type.isin(stat)]
#如果只有開始時間,沒有截止時間,則默認截止時間為當天,切割數據框
if date1 is not None and date2 is None:
df = df[df.date &>= date1]
#如果沒有開始時間,只有截止時間,則默認開始時間為數據的第一天,切割資料庫
elif date2 is not None and date1 is None:
df = df[df.date &<= date2] #如果都有,則按起止時間切割數據框 elif date1 is not None and date2 is not None: df = df[df.date &<= date2] df = df[df.date &>= date1]
#處理國家
#如果輸入的國名不在數據裏,報錯;如果在,根據國名來切割數據框
if country is not None:
if country not in df.country.values:
print("Country {} not found".format(country))
df = df[df.country == str(country)]
df = df.pivot_table(index=["date", country], columns=type, values=cases,
aggfunc={date:first, country:first, cases:np.sum})
.reset_index().fillna(0)
#如果死亡為空,則設為0
if death not in df.columns:
df[death] = 0
#如果治癒為空,則設為0
if recovered not in df.columns:
df[recovered] = 0
#根據時間來給數據排序
df.sort_values(by=[country, date], inplace=True)
#計算累計數據
if cum is True:
df.confirmed = df.groupby(country)[confirmed].transform(pd.Series.cumsum)
df.recovered = df.groupby(country)[recovered].transform(pd.Series.cumsum)
df.death = df.groupby(country)[death].transform(pd.Series.cumsum)
return df

好了,現在就搞定了。

比如你跑下面這段碼:

df = covidGet(country = US, date1 = 2020-02-01, date2 = 2020-03-10, cum = True)
df

會得到(圖沒截完):

剩下的事兒就靠大家各顯神通了,比如可以用matplotlib來畫圖,或者用plotly來畫地圖等等。

例如:

import matplotlib
from matplotlib import pyplot as plt

df = covidGet(country = US, date1 = 2020-02-01, date2 = 2020-03-10, cum = True)
df2 = covidGet(country = Italy, date1 = 2020-02-01, date2 = 2020-03-10, cum = True)

matplotlib.rcParams["font.size"] = 12
fig, ax = plt.subplots(figsize = (10,6))
ax.plot(df.date,df.confirmed, label=US)
ax.plot(df2.date,df2.confirmed, label=Italy)
leg = ax.legend()


我一月底做了一個疫情匯總的網頁地圖(https://zhuanlan.zhihu.com/p/104024595),之後就不斷有人問我數據是怎麼搞到的。我是寫了一個爬蟲去抓的丁香園和JHU/Esri地圖背後的數據。類似的方法知乎上已經有很多教程。不過問我的人裡面有好幾個都很謙虛,說自己是『新手』,想用更簡單的方法來試試。所以這裡借個樓,介紹一種對真的新手比較友好的方法,用Python獲取全球疫情數據。

這個方法很簡單,但也比較有侷限性,老手、高手們可以散退了。建議在Jupyter裡面寫。Jupyter安裝和設置詳見:https://zhuanlan.zhihu.com/p/32320214。如果一句代碼都沒寫過,只要你裝對了Jupyter,也可以直接把最後的完整代碼粘過去用,修改一下國名、日期、統計類別等參數就行了。

數據來源:https://github.com/RamiKrispin/coronavirus,每天自動更新,JHU的那個地圖的數據來源和這個相同。

首先,我們需要獲取原始數據。原始數據為csv格式,一共7列,分別是省/州、國家、經緯度、日期,數量和類別。其中類別分為確診、死亡和治癒3種。大概長這樣:

簡單起見,省/州這一列就先去掉了(省/州級別的數據整理得很亂,而且經常會變)。

代碼:

import pandas as pd
import numpy as np

def covidGet():
#獲取數據並去掉第一列
df = pd.read_csv(https://raw.githubusercontent.com/RamiKrispin/coronavirus-csv/master/coronavirus_dataset.csv,
names=["province", country, lat, long, date, cases, type], skiprows=1, parse_dates=[date])
return df

現在如果你跑一下all_data = covidGet(),就能得到一個包含了所有數據的數據框。這個格式很難用,所以我們需要把它整理一下,至少要把不同的國家和種類的數據給分開。所以我們需要給covidGet()添加兩個新參數:

import pandas as pd
import numpy as np

#需要輸入查詢國家,以及統計類別。如果統計類別為空,則默認為全都要。
#統計的類型為一個list
def covidGet(country=None, stat=[confirmed, death, recovered]):
#獲取數據並去掉第一列
df = pd.read_csv(https://raw.githubusercontent.com/RamiKrispin/coronavirus-csv/master/coronavirus_dataset.csv,
names=["province", country, lat, long, date, cases, type], skiprows=1, parse_dates=[date])
#根據統計類別來切割數據框
df = df[df.type.isin(stat)]
#處理國家
#如果輸入的國名不在數據裏,報錯;如果在,根據國名來切割數據框
if country is not None:
if country not in df.country.values:
print("Country {} not found".format(country))
df = df[df.country == str(country)]
df = df.pivot_table(index=["date", country], columns=type, values=cases,
aggfunc={date:first, country:first, cases:np.sum})
.reset_index().fillna(0)
#如果死亡為空,則設為0
if death not in df.columns:
df[death] = 0
#如果治癒為空,則設為0
if recovered not in df.columns:
df[recovered] = 0
return df

接下來,處理日期。這個數據的起點日期是2022年1月22日,一直持續至今,每日更新。我們可以加兩個參數date1和date2,來選取自己想要的時間段。默認情況下可以不輸入這兩個參數,此時會返回所有日期的數據:

import pandas as pd
import numpy as np

#需要輸入查詢國家,以及統計類別。如果統計類別為空,則默認為全都要。
#統計的類型為一個list
def covidGet(country=None, date1=None, date2=None, stat=[confirmed, death, recovered]):
#獲取數據並去掉第一列
df = pd.read_csv(https://raw.githubusercontent.com/RamiKrispin/coronavirus-csv/master/coronavirus_dataset.csv,
names=["province", country, lat, long, date, cases, type], skiprows=1, parse_dates=[date])
#根據統計類別來切割數據框
df = df[df.type.isin(stat)]
#如果只有開始時間,沒有截止時間,則默認截止時間為當天,切割數據框
if date1 is not None and date2 is None:
df = df[df.date &>= date1]
#如果沒有開始時間,只有截止時間,則默認開始時間為數據的第一天,切割資料庫
elif date2 is not None and date1 is None:
df = df[df.date &<= date2] #如果都有,則按起止時間切割數據框 elif date1 is not None and date2 is not None: df = df[df.date &<= date2] df = df[df.date &>= date1]
#處理國家
#如果輸入的國名不在數據裏,報錯;如果在,根據國名來切割數據框
if country is not None:
if country not in df.country.values:
print("Country {} not found".format(country))
df = df[df.country == str(country)]
df = df.pivot_table(index=["date", country], columns=type, values=cases,
aggfunc={date:first, country:first, cases:np.sum})
.reset_index().fillna(0)
#如果死亡為空,則設為0
if death not in df.columns:
df[death] = 0
#如果治癒為空,則設為0
if recovered not in df.columns:
df[recovered] = 0
#根據時間來給數據排序
df.sort_values(by=[country, date], inplace=True)
return df

最後一步,原始數據裡面是每天的新增確診、新增死亡和新增治癒數據,有時候我們需要看累計,因此我們可以再加一個cum選項,計算累計病例。默認情況下會返回每日新增數據,如果cum被設為True則會返回累計數據:

import pandas as pd
import numpy as np

#需要輸入查詢國家,以及統計類別。如果統計類別為空,則默認為全都要。
#統計的類型為一個list
def covidGet(country=None, date1=None, date2=None, stat=[confirmed, death, recovered], cum=False):
#獲取數據並去掉第一列
df = pd.read_csv(https://raw.githubusercontent.com/RamiKrispin/coronavirus-csv/master/coronavirus_dataset.csv,
names=["province", country, lat, long, date, cases, type], skiprows=1, parse_dates=[date])
#根據統計類別來切割數據框
df = df[df.type.isin(stat)]
#如果只有開始時間,沒有截止時間,則默認截止時間為當天,切割數據框
if date1 is not None and date2 is None:
df = df[df.date &>= date1]
#如果沒有開始時間,只有截止時間,則默認開始時間為數據的第一天,切割資料庫
elif date2 is not None and date1 is None:
df = df[df.date &<= date2] #如果都有,則按起止時間切割數據框 elif date1 is not None and date2 is not None: df = df[df.date &<= date2] df = df[df.date &>= date1]
#處理國家
#如果輸入的國名不在數據裏,報錯;如果在,根據國名來切割數據框
if country is not None:
if country not in df.country.values:
print("Country {} not found".format(country))
df = df[df.country == str(country)]
df = df.pivot_table(index=["date", country], columns=type, values=cases,
aggfunc={date:first, country:first, cases:np.sum})
.reset_index().fillna(0)
#如果死亡為空,則設為0
if death not in df.columns:
df[death] = 0
#如果治癒為空,則設為0
if recovered not in df.columns:
df[recovered] = 0
#根據時間來給數據排序
df.sort_values(by=[country, date], inplace=True)
#計算累計數據
if cum is True:
df.confirmed = df.groupby(country)[confirmed].transform(pd.Series.cumsum)
df.recovered = df.groupby(country)[recovered].transform(pd.Series.cumsum)
df.death = df.groupby(country)[death].transform(pd.Series.cumsum)
return df

好了,現在就搞定了。

比如你跑下面這段碼:

df = covidGet(country = US, date1 = 2020-02-01, date2 = 2020-03-10, cum = True)
df

會得到(圖沒截完):

剩下的事兒就靠大家各顯神通了,比如可以用matplotlib來畫圖,或者用plotly來畫地圖等等。

例如:

import matplotlib
from matplotlib import pyplot as plt

df = covidGet(country = US, date1 = 2020-02-01, date2 = 2020-03-10, cum = True)
df2 = covidGet(country = Italy, date1 = 2020-02-01, date2 = 2020-03-10, cum = True)

matplotlib.rcParams["font.size"] = 12
fig, ax = plt.subplots(figsize = (10,6))
ax.plot(df.date,df.confirmed, label=US)
ax.plot(df2.date,df2.confirmed, label=Italy)
leg = ax.legend()


說到疫情防控信息數據,怎麼能不提我們微軟亞洲研究院的新冠數據分析網站 COVID Insights (http://covid.msra.cn)呢!基於計算生物學、數據分析等領域進行構建,不僅能彙集各種疫情信息數據,更能進行深入、多角度分析,用到就是賺到。

網站的設計和功能

COVID Insights 網站主要包含感染數據分析、基因組和蛋白質結構、研究趨勢三大板塊,以可視化和互動的方式直觀展現了疫情在不同國家和地區的傳播特性、引起疫情的病毒 SARS-CoV-2 的病毒學分析結果,以及全球最新的相關研究熱點。網站使用的所有數據均來自約翰霍普金斯大學、美國疾病控制與預防中心、GISAID 等機構的官方發布。

當然,隨著新冠疫情形勢的不斷變化,微軟亞洲研究院推出的 COVID Insights 網站 (http://covid.msra.cn)也在持續更新。此前,我們發布了病毒傳播特性、病毒學分析、全球最新研究熱點等相關功能,多角度地提供了與 COVID-19 有關的數據和分析結果。

近日,為了更好地瞭解疫情在不同區域的嚴重程度和變化趨勢,深入研究新冠病毒的基因變異情況,COVID Insights 網站新增了有效再生數(Rt)可視化功能和基因組分析結果的時序展示功能。

有效再生數Rt

在疫情防控時,疫情傳播態勢是不可或缺的重要信息,瞭解疫情傳播態勢可以更好地幫助防疫措施的制定和相關的醫學研究。如何量化當前疫情的嚴重程度、預測有限數量病例是否會引起未來大規模的傳播、何種防控措施能夠有效遏制傳染是當前面臨的三個挑戰。回答這些問題需要藉助兩個指標:基本再生數(R,又稱R0,Basic Reproduction Number)與有效再生數(Rt,Effective Reproduction Number)。

再生數是傳染病防控中的關鍵參數。基本再生數 R 是指在沒有任何干預措施的前提下,在全部是易感人羣的環境中平均一個患者可以傳染的人數。R 值大於1則疾病能夠在人羣中擴散,否則傳染病將會逐步消失。但 R 值的計算條件是自由傳播的理想環境,因此通常只用於估算傳染病傳播能力的期望值。

出於防控目的,則需要有一個指標能夠實時反映傳染病在人羣中的傳播力,這個指標通常使用的是有效再生數 Rt。Rt 是指從 t 時刻開始,一個患者平均能夠感染的人數。如果 Rt 值大於1,感染人數會持續增多。當 Rt 值小於1時,感染人數將會逐步降低。

在此次新冠疫情期間,Rt 值在疫情防控中發揮了重要作用。事實上,一個地區感染人數的絕對值並不一定能夠準確地反映該地區的疫情傳播走向,但Rt 值能夠實時計算病毒在某個地區的傳播能力,防控人員利用這一點可以觀察到某個時刻疫情控制的情況,從而去判斷該地區當前的疫情嚴重程度。除此之外,因為 Rt 值會隨著有效的防控手段逐漸下降,所以也被不少國家用來評價所屬地區防控措施的有效性。

因此,在此次更新的 COVID Insights 網站中,我們在感染數據分析版塊加入了 Rt 值的功能。通過對不同區域的 Rt 值進行可視化,用戶可以從熱力圖中直觀地瞭解疫情在不同區域的嚴重程度和變化趨勢。

7月19日-8月8日期間遼寧地區 Rt 值變化熱力圖

以中國遼寧地區為例,從上圖中可以看到,從7月20日至7月28日,遼寧地區的熱力圖顏色不斷加深,Rt 值從小於1逐漸上升至1.5,這一時期遼寧地區新增較多病例,病毒傳播呈擴散趨勢,感染人數有所上升。7月28日以後,熱力圖顏色減淡,Rt 值回落至接近1,由此可以看出防控措施開始起效,疫情傳播態勢逐漸得到了控制。

多年來,Rt 值的計算方法在不斷改進。在此次 COVID Insights 網站的更新中,我們使用了一個開源的模型(https://github.com/epiforecasts/covid)來計算 Rt 值。在計算某天的 Rt 值時,我們用基於動態窗口的歷史確診數據來得到更加穩定、可靠的估計結果。考慮到數據中可能會出現的缺失和錯誤(例如確診數為負),我們則通過利用滑動時間窗口內的確診數據對某天的確診人數進行了平滑處理(smoothing),有效緩解了數據誤差帶來的影響。

按時序動態觀察基因組分析

本次更新,除了在感染數據分析版塊新增有效再生數 Rt,基因組分析版塊也新增了時序播放功能,展示每個位點變異類型數量的時序動態。用戶可以在這裡觀看到更細粒度的可視化呈現。

新功能提供了針對位點的變異明細列表。在選定氨基酸的種類和時間段後,用戶可以查看當前位點該氨基酸在各大洲對應的序列數量和這些序列在該大洲全部序列中的佔比情況,以及變化趨勢。

在基因組分析版塊的最後,還提供了對基因組分析結果的下載功能,同時,在蛋白質結構版塊,用戶也可以下載蛋白質結構預測結果

為了更加方便用戶瀏覽 COVID Insights 網站,此次更新也將網站的頁面進行了重組,分為流行病學、病毒學和研究趨勢三大部分,並在此基礎上進一步細分。流行病學頁面包含感染數據分析和幹預模型,病毒學頁面包含了基因組分析和蛋白質結構的信息,研究趨勢版塊則仍保留與 COVID-19 相關的全球研究趨勢,用兩級結構幫助用戶快速、清晰地找到所需的功能。

歡迎大家使用 COVID Insights 網站的新功能!我們希望可以賦能更多對新冠病毒數據分析感興趣的研究人員,並且為抗疫作出更多貢獻。


本賬號為微軟亞洲研究院的官方知乎賬號。本賬號立足於計算機領域,特別是人工智慧相關的前沿研究,旨在為人工智慧的相關研究提供範例,從專業的角度促進公眾對人工智慧的理解,並為研究人員提供討論和參與的開放平臺,從而共建計算機領域的未來。

微軟亞洲研究院的每一位專家都是我們的智囊團,你在這個賬號可以閱讀到來自計算機科學領域各個不同方向的專家們的見解。請大家不要吝惜手裡的「邀請」,讓我們在分享中共同進步。

也歡迎大家關注我們的微博和微信 (ID:MSRAsia) 賬號,瞭解更多我們的研究。

發佈於 2020-08-14繼續瀏覽內容知乎發現更大的世界打開Chrome繼續[已重置][已重置]

收集疫情防控信息,可以認準中國移動推出的簡訊小程序服務,簡訊小程序提供了簡訊、移動認證、網頁程序的能力,具備終端全覆蓋、網路全覆蓋的優勢。

在疫情期間,中國移動免費提供簡訊小程序+疫情表單解決方案,可以一站式快速收集疫情信息。管理人員通過在後臺創建表單,一鍵下發至組織內成員,成員點擊簡訊鏈接即可開始填報相關信息,無需關注任何公眾號、無需安裝任何App,超低門檻,填報率大大提高。

具體開通方式可聯繫當地移動客戶經理諮詢。


收集疫情防控信息,可以認準中國移動推出的簡訊小程序服務,簡訊小程序提供了簡訊、移動認證、網頁程序的能力,具備終端全覆蓋、網路全覆蓋的優勢。

在疫情期間,中國移動免費提供簡訊小程序+疫情表單解決方案,可以一站式快速收集疫情信息。管理人員通過在後臺創建表單,一鍵下發至組織內成員,成員點擊簡訊鏈接即可開始填報相關信息,無需關注任何公眾號、無需安裝任何App,超低門檻,填報率大大提高。

具體開通方式可聯繫當地移動客戶經理諮詢。


最近疫情反覆,國內多個省市都有了零星的確診病例。

各地學校、政府機關、社區街道辦、企事業單位都在嚴防。這個時候我們按照相關要求,盡量減少不必要的人員流動。

在居家學習、辦公的時候,如何才能保證效率?在面對紛繁的收集信息,如何才能避免焦頭爛額?文

傳統的紙質登記要耗費大量時間,還有接觸的風險。更好的辦法是使用在線收集表,因為它能:

  • 一鍵轉發到QQ或微信羣,點擊即可填寫
  • 小程序無需下載和安裝
  • 單份收集表支持百萬條信息收集
  • 實時匯總到在線表格,減少接觸
  • 線下掃碼也可填寫

微信小程序可以針對疫情防控進行快速信息收集統計,微信搜索「接龍管家」小程序,可以進行信息收集,通知發布、數據導出。無論是防疫通知、健康打卡、信息填表、健康碼上傳,都可以一鍵統計,並且導出也很方便。

無論是企業還是個人都可以通過接龍管家進行疫情上報,對於疫情線索的收集非常高效省時,同時數據經過多層加密安全可靠,完美解決了微信羣成員統計難,收集難的問題。

接龍管家在疫情期間為一千多萬用戶提供了免費的防疫統計服務,並且組建了三十餘個微信羣快速解決用戶使用問題。

發佈於 01-25繼續瀏覽內容知乎發現更大的世界打開Chrome繼續百數百數?

已認證的官方帳號

如果你需要收集員工信息或是轄區住戶信息的話,可以使用百數低代碼開發平臺。

目前平臺應用中心已經封裝了一款名為「疫情防控綜合管理」的應用可共使用。只需要安裝即可使用。

主要適合以下三種場景:

1、企業內員工覈算檢測申報,覈算檢測查詢和提醒;

2、員工動向申請,用於記錄員工外出動向,特別適合春節返鄉記錄行程;

3、轄區疫情防控登記,適合社區或者村委會記錄返鄉人員信息,管控人員流動記錄。

編輯於 02-22繼續瀏覽內容知乎發現更大的世界打開Chrome繼續我是一隻小小小小魚我是一隻小小小小魚大數據

1. 全媒體實時監測。通過採用蟻坊軟體的網路輿情監測系統,對全網新聞媒體網站、媒體平臺、官方媒體、權威媒體博主等進行全方位監測。畢竟,在這抗擊新型肺炎疫情的非常時期,各大媒體會對疫情數據、專家解讀、救援情況、疫情發展以及相關問題等信息進行同步跟進和通報,也有些會發布一些事件的觀點看法文章和信息。因此,可以通過收集統計相關媒體的新聞報道、觀點、評論等信息,查看抗擊肺炎的輿情數據信息。

2. 抗擊肺炎的相關話題全面監測。當前各大媒體網站、社交平臺上都會不斷湧現出與疫情方面相關的話題信息,而通過利用蟻坊軟體的網路輿情監測系統全面監測公眾對疫情方面的話題討論信息,不僅可以收集和統計抗擊肺炎的輿情數據信息,還可助力用戶掌握網民對疫情的輿情熱度,輔助決策優化。

3. 實時精準監測疫情輿情動態。網路時代,數據信息都是時時在更新的,抗擊肺炎的輿情數據信息亦是如此。因此,為了確保第一時間獲得最權威、最實時、最準確的疫情輿情動態數據信息,及時制定各項應急措施和工作方案。通過藉助蟻坊軟體的網路輿情監測系統,可訂閱疫情相關的主題或設置多種關鍵詞,系統會自動24小時監測與之相關的信息,過濾無效信息,確保抗擊肺炎的輿情數據信息統計的精準性。

輿情監測_輿情監控系統_輿情監測軟體_免費試用?

www.eefung.com


如果你需要收集員工信息或是轄區住戶信息的話,可以使用百數低代碼開發平臺。

目前平臺應用中心已經封裝了一款名為「疫情防控綜合管理」的應用可共使用。只需要安裝即可使用。

主要適合以下三種場景:

1、企業內員工覈算檢測申報,覈算檢測查詢和提醒;

2、員工動向申請,用於記錄員工外出動向,特別適合春節返鄉記錄行程;

3、轄區疫情防控登記,適合社區或者村委會記錄返鄉人員信息,管控人員流動記錄。

編輯於 02-22繼續瀏覽內容知乎發現更大的世界打開Chrome繼續我是一隻小小小小魚我是一隻小小小小魚大數據

1. 全媒體實時監測。通過採用蟻坊軟體的網路輿情監測系統,對全網新聞媒體網站、媒體平臺、官方媒體、權威媒體博主等進行全方位監測。畢竟,在這抗擊新型肺炎疫情的非常時期,各大媒體會對疫情數據、專家解讀、救援情況、疫情發展以及相關問題等信息進行同步跟進和通報,也有些會發布一些事件的觀點看法文章和信息。因此,可以通過收集統計相關媒體的新聞報道、觀點、評論等信息,查看抗擊肺炎的輿情數據信息。

2. 抗擊肺炎的相關話題全面監測。當前各大媒體網站、社交平臺上都會不斷湧現出與疫情方面相關的話題信息,而通過利用蟻坊軟體的網路輿情監測系統全面監測公眾對疫情方面的話題討論信息,不僅可以收集和統計抗擊肺炎的輿情數據信息,還可助力用戶掌握網民對疫情的輿情熱度,輔助決策優化。

3. 實時精準監測疫情輿情動態。網路時代,數據信息都是時時在更新的,抗擊肺炎的輿情數據信息亦是如此。因此,為了確保第一時間獲得最權威、最實時、最準確的疫情輿情動態數據信息,及時制定各項應急措施和工作方案。通過藉助蟻坊軟體的網路輿情監測系統,可訂閱疫情相關的主題或設置多種關鍵詞,系統會自動24小時監測與之相關的信息,過濾無效信息,確保抗擊肺炎的輿情數據信息統計的精準性。

輿情監測_輿情監控系統_輿情監測軟體_免費試用?

www.eefung.com


1. 全媒體實時監測。通過採用蟻坊軟體的網路輿情監測系統,對全網新聞媒體網站、媒體平臺、官方媒體、權威媒體博主等進行全方位監測。畢竟,在這抗擊新型肺炎疫情的非常時期,各大媒體會對疫情數據、專家解讀、救援情況、疫情發展以及相關問題等信息進行同步跟進和通報,也有些會發布一些事件的觀點看法文章和信息。因此,可以通過收集統計相關媒體的新聞報道、觀點、評論等信息,查看抗擊肺炎的輿情數據信息。

2. 抗擊肺炎的相關話題全面監測。當前各大媒體網站、社交平臺上都會不斷湧現出與疫情方面相關的話題信息,而通過利用蟻坊軟體的網路輿情監測系統全面監測公眾對疫情方面的話題討論信息,不僅可以收集和統計抗擊肺炎的輿情數據信息,還可助力用戶掌握網民對疫情的輿情熱度,輔助決策優化。

3. 實時精準監測疫情輿情動態。網路時代,數據信息都是時時在更新的,抗擊肺炎的輿情數據信息亦是如此。因此,為了確保第一時間獲得最權威、最實時、最準確的疫情輿情動態數據信息,及時制定各項應急措施和工作方案。通過藉助蟻坊軟體的網路輿情監測系統,可訂閱疫情相關的主題或設置多種關鍵詞,系統會自動24小時監測與之相關的信息,過濾無效信息,確保抗擊肺炎的輿情數據信息統計的精準性。

輿情監測_輿情監控系統_輿情監測軟體_免費試用?

www.eefung.com


因為我是有數模作業的,所以曾經一直苦苦找尋疫情期間的數據,也特別明白大家找不到時的那種急切心理。

曾經也在知乎上找過,但是由於自身能力的不濟,也因此沒有辦法看懂一眾大佬的文章。

窮學生自然也沒有去付費購買了。

但最終我還是通過多種途徑找到了數據。

如果各位小夥伴想要,可以關注加私信找我免費領取的哦。

大一小學生將竭誠為您服務。


可以藉助一款叫做接龍統計表的小程序來完成,直接在微信打開以後創建一個統計問答,發布以後就可以邀請人員參與,在問答詳情裡面可以點擊報表下載按鈕生成EXCEL表,然後導出到本地使用。


推薦閱讀:
相關文章