不请自来~

这里有一份关于新型冠状数据集合集,请笑纳~

  • 丁香园新型冠状病毒(COVID-19)疫情时间序列数据集

该数据集为热心网友爬取更新至和鲸社区的丁香园数据,包括中国地区精确至地级市的数据,港澳台/西藏的数据精确度仅到省级。可以练习结构化数据处理、时间序列、可视化等;另外,该数据集还包含新闻以及谣言的语料库,适合做NLP的同学细品~

此外,还有国际版的ncov数据集,包含了从2020年1月22日起世界各地每日关于2019年新型冠状病毒感染病例数、死亡人数和恢复情况的信息:

  • 2019新型冠状病毒(COVID-19)世界范围传播数据

以及国际版的舆情数据:

  • 新型冠状病毒(2019-nCoV)在Twitter上相关的推特数据

据义大利 29 日公布的信息,义大利24小时新增新冠肺炎确诊病例5217例。累计确诊97689例,死亡新增 756 例,累计死亡病例10779例,累计治愈13030例。以下数据集最后更新时间为 3 月 29 日:

  • 义大利2019新型冠状病毒COVID-19数据

光说不练假把式,我们还找来了世界国家及地区的坐标数据集,以及中国各地区坐标数据集。无论是对此次疫情的可视化,还是其他国家/城市相关的地理数据的可视化,都十分有用。(搭配各类地图可视化的库,就可画出炫酷的地图可视化。)

  • 中国坐标数据集
  • 世界坐标数据集

什么?有了数据集也不会用?行...也不是没有办法,这就上课代表作业给你抄抄!

课代表作业【1】:

  • 【武汉加油】基于Pyecharts的疫情数据可视化~

  • 2019新型冠状病毒(2019-nCoV)数据地图可视化

分析时间比较早,非实时疫情可视化数据图

课代表作业【2】:

  • 2019-nCoV疫情可视化

分析时间比较早,非实时疫情可视化数据图

另外,我们发现大家习惯把这一次新型冠状病毒和SARS做比较,所以我们十分努力地从2003年并不发达的互联网中,「考古」出了一些数据集:

  • 严重急性呼吸系统综合症SARS数据集

这个数据记录了2003年SARS疫情世界各个国家总计确诊/治愈/死亡数据,还有首例确诊时间、患病者平均年龄等相关数据,并且自带地理位置数据。

发布于 2020-03-30继续浏览内容知乎发现更大的世界打开Chrome继续叶山Shan Ye叶山Shan Ye?

地质学话题下的优秀答主

我一月底做了一个疫情汇总的网页地图(https://zhuanlan.zhihu.com/p/104024595),之后就不断有人问我数据是怎么搞到的。我是写了一个爬虫去抓的丁香园和JHU/Esri地图背后的数据。类似的方法知乎上已经有很多教程。不过问我的人里面有好几个都很谦虚,说自己是『新手』,想用更简单的方法来试试。所以这里借个楼,介绍一种对真的新手比较友好的方法,用Python获取全球疫情数据。

这个方法很简单,但也比较有局限性,老手、高手们可以散退了。建议在Jupyter里面写。Jupyter安装和设置详见:https://zhuanlan.zhihu.com/p/32320214。如果一句代码都没写过,只要你装对了Jupyter,也可以直接把最后的完整代码粘过去用,修改一下国名、日期、统计类别等参数就行了。

数据来源:https://github.com/RamiKrispin/coronavirus,每天自动更新,JHU的那个地图的数据来源和这个相同。

首先,我们需要获取原始数据。原始数据为csv格式,一共7列,分别是省/州、国家、经纬度、日期,数量和类别。其中类别分为确诊、死亡和治愈3种。大概长这样:

简单起见,省/州这一列就先去掉了(省/州级别的数据整理得很乱,而且经常会变)。

代码:

import pandas as pd
import numpy as np

def covidGet():
#获取数据并去掉第一列
df = pd.read_csv(https://raw.githubusercontent.com/RamiKrispin/coronavirus-csv/master/coronavirus_dataset.csv,
names=["province", country, lat, long, date, cases, type], skiprows=1, parse_dates=[date])
return df

现在如果你跑一下all_data = covidGet(),就能得到一个包含了所有数据的数据框。这个格式很难用,所以我们需要把它整理一下,至少要把不同的国家和种类的数据给分开。所以我们需要给covidGet()添加两个新参数:

import pandas as pd
import numpy as np

#需要输入查询国家,以及统计类别。如果统计类别为空,则默认为全都要。
#统计的类型为一个list
def covidGet(country=None, stat=[confirmed, death, recovered]):
#获取数据并去掉第一列
df = pd.read_csv(https://raw.githubusercontent.com/RamiKrispin/coronavirus-csv/master/coronavirus_dataset.csv,
names=["province", country, lat, long, date, cases, type], skiprows=1, parse_dates=[date])
#根据统计类别来切割数据框
df = df[df.type.isin(stat)]
#处理国家
#如果输入的国名不在数据里,报错;如果在,根据国名来切割数据框
if country is not None:
if country not in df.country.values:
print("Country {} not found".format(country))
df = df[df.country == str(country)]
df = df.pivot_table(index=["date", country], columns=type, values=cases,
aggfunc={date:first, country:first, cases:np.sum})
.reset_index().fillna(0)
#如果死亡为空,则设为0
if death not in df.columns:
df[death] = 0
#如果治愈为空,则设为0
if recovered not in df.columns:
df[recovered] = 0
return df

接下来,处理日期。这个数据的起点日期是2022年1月22日,一直持续至今,每日更新。我们可以加两个参数date1和date2,来选取自己想要的时间段。默认情况下可以不输入这两个参数,此时会返回所有日期的数据:

import pandas as pd
import numpy as np

#需要输入查询国家,以及统计类别。如果统计类别为空,则默认为全都要。
#统计的类型为一个list
def covidGet(country=None, date1=None, date2=None, stat=[confirmed, death, recovered]):
#获取数据并去掉第一列
df = pd.read_csv(https://raw.githubusercontent.com/RamiKrispin/coronavirus-csv/master/coronavirus_dataset.csv,
names=["province", country, lat, long, date, cases, type], skiprows=1, parse_dates=[date])
#根据统计类别来切割数据框
df = df[df.type.isin(stat)]
#如果只有开始时间,没有截止时间,则默认截止时间为当天,切割数据框
if date1 is not None and date2 is None:
df = df[df.date &>= date1]
#如果没有开始时间,只有截止时间,则默认开始时间为数据的第一天,切割资料库
elif date2 is not None and date1 is None:
df = df[df.date &<= date2] #如果都有,则按起止时间切割数据框 elif date1 is not None and date2 is not None: df = df[df.date &<= date2] df = df[df.date &>= date1]
#处理国家
#如果输入的国名不在数据里,报错;如果在,根据国名来切割数据框
if country is not None:
if country not in df.country.values:
print("Country {} not found".format(country))
df = df[df.country == str(country)]
df = df.pivot_table(index=["date", country], columns=type, values=cases,
aggfunc={date:first, country:first, cases:np.sum})
.reset_index().fillna(0)
#如果死亡为空,则设为0
if death not in df.columns:
df[death] = 0
#如果治愈为空,则设为0
if recovered not in df.columns:
df[recovered] = 0
#根据时间来给数据排序
df.sort_values(by=[country, date], inplace=True)
return df

最后一步,原始数据里面是每天的新增确诊、新增死亡和新增治愈数据,有时候我们需要看累计,因此我们可以再加一个cum选项,计算累计病例。默认情况下会返回每日新增数据,如果cum被设为True则会返回累计数据:

import pandas as pd
import numpy as np

#需要输入查询国家,以及统计类别。如果统计类别为空,则默认为全都要。
#统计的类型为一个list
def covidGet(country=None, date1=None, date2=None, stat=[confirmed, death, recovered], cum=False):
#获取数据并去掉第一列
df = pd.read_csv(https://raw.githubusercontent.com/RamiKrispin/coronavirus-csv/master/coronavirus_dataset.csv,
names=["province", country, lat, long, date, cases, type], skiprows=1, parse_dates=[date])
#根据统计类别来切割数据框
df = df[df.type.isin(stat)]
#如果只有开始时间,没有截止时间,则默认截止时间为当天,切割数据框
if date1 is not None and date2 is None:
df = df[df.date &>= date1]
#如果没有开始时间,只有截止时间,则默认开始时间为数据的第一天,切割资料库
elif date2 is not None and date1 is None:
df = df[df.date &<= date2] #如果都有,则按起止时间切割数据框 elif date1 is not None and date2 is not None: df = df[df.date &<= date2] df = df[df.date &>= date1]
#处理国家
#如果输入的国名不在数据里,报错;如果在,根据国名来切割数据框
if country is not None:
if country not in df.country.values:
print("Country {} not found".format(country))
df = df[df.country == str(country)]
df = df.pivot_table(index=["date", country], columns=type, values=cases,
aggfunc={date:first, country:first, cases:np.sum})
.reset_index().fillna(0)
#如果死亡为空,则设为0
if death not in df.columns:
df[death] = 0
#如果治愈为空,则设为0
if recovered not in df.columns:
df[recovered] = 0
#根据时间来给数据排序
df.sort_values(by=[country, date], inplace=True)
#计算累计数据
if cum is True:
df.confirmed = df.groupby(country)[confirmed].transform(pd.Series.cumsum)
df.recovered = df.groupby(country)[recovered].transform(pd.Series.cumsum)
df.death = df.groupby(country)[death].transform(pd.Series.cumsum)
return df

好了,现在就搞定了。

比如你跑下面这段码:

df = covidGet(country = US, date1 = 2020-02-01, date2 = 2020-03-10, cum = True)
df

会得到(图没截完):

剩下的事儿就靠大家各显神通了,比如可以用matplotlib来画图,或者用plotly来画地图等等。

例如:

import matplotlib
from matplotlib import pyplot as plt

df = covidGet(country = US, date1 = 2020-02-01, date2 = 2020-03-10, cum = True)
df2 = covidGet(country = Italy, date1 = 2020-02-01, date2 = 2020-03-10, cum = True)

matplotlib.rcParams["font.size"] = 12
fig, ax = plt.subplots(figsize = (10,6))
ax.plot(df.date,df.confirmed, label=US)
ax.plot(df2.date,df2.confirmed, label=Italy)
leg = ax.legend()


我一月底做了一个疫情汇总的网页地图(https://zhuanlan.zhihu.com/p/104024595),之后就不断有人问我数据是怎么搞到的。我是写了一个爬虫去抓的丁香园和JHU/Esri地图背后的数据。类似的方法知乎上已经有很多教程。不过问我的人里面有好几个都很谦虚,说自己是『新手』,想用更简单的方法来试试。所以这里借个楼,介绍一种对真的新手比较友好的方法,用Python获取全球疫情数据。

这个方法很简单,但也比较有局限性,老手、高手们可以散退了。建议在Jupyter里面写。Jupyter安装和设置详见:https://zhuanlan.zhihu.com/p/32320214。如果一句代码都没写过,只要你装对了Jupyter,也可以直接把最后的完整代码粘过去用,修改一下国名、日期、统计类别等参数就行了。

数据来源:https://github.com/RamiKrispin/coronavirus,每天自动更新,JHU的那个地图的数据来源和这个相同。

首先,我们需要获取原始数据。原始数据为csv格式,一共7列,分别是省/州、国家、经纬度、日期,数量和类别。其中类别分为确诊、死亡和治愈3种。大概长这样:

简单起见,省/州这一列就先去掉了(省/州级别的数据整理得很乱,而且经常会变)。

代码:

import pandas as pd
import numpy as np

def covidGet():
#获取数据并去掉第一列
df = pd.read_csv(https://raw.githubusercontent.com/RamiKrispin/coronavirus-csv/master/coronavirus_dataset.csv,
names=["province", country, lat, long, date, cases, type], skiprows=1, parse_dates=[date])
return df

现在如果你跑一下all_data = covidGet(),就能得到一个包含了所有数据的数据框。这个格式很难用,所以我们需要把它整理一下,至少要把不同的国家和种类的数据给分开。所以我们需要给covidGet()添加两个新参数:

import pandas as pd
import numpy as np

#需要输入查询国家,以及统计类别。如果统计类别为空,则默认为全都要。
#统计的类型为一个list
def covidGet(country=None, stat=[confirmed, death, recovered]):
#获取数据并去掉第一列
df = pd.read_csv(https://raw.githubusercontent.com/RamiKrispin/coronavirus-csv/master/coronavirus_dataset.csv,
names=["province", country, lat, long, date, cases, type], skiprows=1, parse_dates=[date])
#根据统计类别来切割数据框
df = df[df.type.isin(stat)]
#处理国家
#如果输入的国名不在数据里,报错;如果在,根据国名来切割数据框
if country is not None:
if country not in df.country.values:
print("Country {} not found".format(country))
df = df[df.country == str(country)]
df = df.pivot_table(index=["date", country], columns=type, values=cases,
aggfunc={date:first, country:first, cases:np.sum})
.reset_index().fillna(0)
#如果死亡为空,则设为0
if death not in df.columns:
df[death] = 0
#如果治愈为空,则设为0
if recovered not in df.columns:
df[recovered] = 0
return df

接下来,处理日期。这个数据的起点日期是2022年1月22日,一直持续至今,每日更新。我们可以加两个参数date1和date2,来选取自己想要的时间段。默认情况下可以不输入这两个参数,此时会返回所有日期的数据:

import pandas as pd
import numpy as np

#需要输入查询国家,以及统计类别。如果统计类别为空,则默认为全都要。
#统计的类型为一个list
def covidGet(country=None, date1=None, date2=None, stat=[confirmed, death, recovered]):
#获取数据并去掉第一列
df = pd.read_csv(https://raw.githubusercontent.com/RamiKrispin/coronavirus-csv/master/coronavirus_dataset.csv,
names=["province", country, lat, long, date, cases, type], skiprows=1, parse_dates=[date])
#根据统计类别来切割数据框
df = df[df.type.isin(stat)]
#如果只有开始时间,没有截止时间,则默认截止时间为当天,切割数据框
if date1 is not None and date2 is None:
df = df[df.date &>= date1]
#如果没有开始时间,只有截止时间,则默认开始时间为数据的第一天,切割资料库
elif date2 is not None and date1 is None:
df = df[df.date &<= date2] #如果都有,则按起止时间切割数据框 elif date1 is not None and date2 is not None: df = df[df.date &<= date2] df = df[df.date &>= date1]
#处理国家
#如果输入的国名不在数据里,报错;如果在,根据国名来切割数据框
if country is not None:
if country not in df.country.values:
print("Country {} not found".format(country))
df = df[df.country == str(country)]
df = df.pivot_table(index=["date", country], columns=type, values=cases,
aggfunc={date:first, country:first, cases:np.sum})
.reset_index().fillna(0)
#如果死亡为空,则设为0
if death not in df.columns:
df[death] = 0
#如果治愈为空,则设为0
if recovered not in df.columns:
df[recovered] = 0
#根据时间来给数据排序
df.sort_values(by=[country, date], inplace=True)
return df

最后一步,原始数据里面是每天的新增确诊、新增死亡和新增治愈数据,有时候我们需要看累计,因此我们可以再加一个cum选项,计算累计病例。默认情况下会返回每日新增数据,如果cum被设为True则会返回累计数据:

import pandas as pd
import numpy as np

#需要输入查询国家,以及统计类别。如果统计类别为空,则默认为全都要。
#统计的类型为一个list
def covidGet(country=None, date1=None, date2=None, stat=[confirmed, death, recovered], cum=False):
#获取数据并去掉第一列
df = pd.read_csv(https://raw.githubusercontent.com/RamiKrispin/coronavirus-csv/master/coronavirus_dataset.csv,
names=["province", country, lat, long, date, cases, type], skiprows=1, parse_dates=[date])
#根据统计类别来切割数据框
df = df[df.type.isin(stat)]
#如果只有开始时间,没有截止时间,则默认截止时间为当天,切割数据框
if date1 is not None and date2 is None:
df = df[df.date &>= date1]
#如果没有开始时间,只有截止时间,则默认开始时间为数据的第一天,切割资料库
elif date2 is not None and date1 is None:
df = df[df.date &<= date2] #如果都有,则按起止时间切割数据框 elif date1 is not None and date2 is not None: df = df[df.date &<= date2] df = df[df.date &>= date1]
#处理国家
#如果输入的国名不在数据里,报错;如果在,根据国名来切割数据框
if country is not None:
if country not in df.country.values:
print("Country {} not found".format(country))
df = df[df.country == str(country)]
df = df.pivot_table(index=["date", country], columns=type, values=cases,
aggfunc={date:first, country:first, cases:np.sum})
.reset_index().fillna(0)
#如果死亡为空,则设为0
if death not in df.columns:
df[death] = 0
#如果治愈为空,则设为0
if recovered not in df.columns:
df[recovered] = 0
#根据时间来给数据排序
df.sort_values(by=[country, date], inplace=True)
#计算累计数据
if cum is True:
df.confirmed = df.groupby(country)[confirmed].transform(pd.Series.cumsum)
df.recovered = df.groupby(country)[recovered].transform(pd.Series.cumsum)
df.death = df.groupby(country)[death].transform(pd.Series.cumsum)
return df

好了,现在就搞定了。

比如你跑下面这段码:

df = covidGet(country = US, date1 = 2020-02-01, date2 = 2020-03-10, cum = True)
df

会得到(图没截完):

剩下的事儿就靠大家各显神通了,比如可以用matplotlib来画图,或者用plotly来画地图等等。

例如:

import matplotlib
from matplotlib import pyplot as plt

df = covidGet(country = US, date1 = 2020-02-01, date2 = 2020-03-10, cum = True)
df2 = covidGet(country = Italy, date1 = 2020-02-01, date2 = 2020-03-10, cum = True)

matplotlib.rcParams["font.size"] = 12
fig, ax = plt.subplots(figsize = (10,6))
ax.plot(df.date,df.confirmed, label=US)
ax.plot(df2.date,df2.confirmed, label=Italy)
leg = ax.legend()


说到疫情防控信息数据,怎么能不提我们微软亚洲研究院的新冠数据分析网站 COVID Insights (http://covid.msra.cn)呢!基于计算生物学、数据分析等领域进行构建,不仅能汇集各种疫情信息数据,更能进行深入、多角度分析,用到就是赚到。

网站的设计和功能

COVID Insights 网站主要包含感染数据分析、基因组和蛋白质结构、研究趋势三大板块,以可视化和互动的方式直观展现了疫情在不同国家和地区的传播特性、引起疫情的病毒 SARS-CoV-2 的病毒学分析结果,以及全球最新的相关研究热点。网站使用的所有数据均来自约翰霍普金斯大学、美国疾病控制与预防中心、GISAID 等机构的官方发布。

当然,随著新冠疫情形势的不断变化,微软亚洲研究院推出的 COVID Insights 网站 (http://covid.msra.cn)也在持续更新。此前,我们发布了病毒传播特性、病毒学分析、全球最新研究热点等相关功能,多角度地提供了与 COVID-19 有关的数据和分析结果。

近日,为了更好地了解疫情在不同区域的严重程度和变化趋势,深入研究新冠病毒的基因变异情况,COVID Insights 网站新增了有效再生数(Rt)可视化功能和基因组分析结果的时序展示功能。

有效再生数Rt

在疫情防控时,疫情传播态势是不可或缺的重要信息,了解疫情传播态势可以更好地帮助防疫措施的制定和相关的医学研究。如何量化当前疫情的严重程度、预测有限数量病例是否会引起未来大规模的传播、何种防控措施能够有效遏制传染是当前面临的三个挑战。回答这些问题需要借助两个指标:基本再生数(R,又称R0,Basic Reproduction Number)与有效再生数(Rt,Effective Reproduction Number)。

再生数是传染病防控中的关键参数。基本再生数 R 是指在没有任何干预措施的前提下,在全部是易感人群的环境中平均一个患者可以传染的人数。R 值大于1则疾病能够在人群中扩散,否则传染病将会逐步消失。但 R 值的计算条件是自由传播的理想环境,因此通常只用于估算传染病传播能力的期望值。

出于防控目的,则需要有一个指标能够实时反映传染病在人群中的传播力,这个指标通常使用的是有效再生数 Rt。Rt 是指从 t 时刻开始,一个患者平均能够感染的人数。如果 Rt 值大于1,感染人数会持续增多。当 Rt 值小于1时,感染人数将会逐步降低。

在此次新冠疫情期间,Rt 值在疫情防控中发挥了重要作用。事实上,一个地区感染人数的绝对值并不一定能够准确地反映该地区的疫情传播走向,但Rt 值能够实时计算病毒在某个地区的传播能力,防控人员利用这一点可以观察到某个时刻疫情控制的情况,从而去判断该地区当前的疫情严重程度。除此之外,因为 Rt 值会随著有效的防控手段逐渐下降,所以也被不少国家用来评价所属地区防控措施的有效性。

因此,在此次更新的 COVID Insights 网站中,我们在感染数据分析版块加入了 Rt 值的功能。通过对不同区域的 Rt 值进行可视化,用户可以从热力图中直观地了解疫情在不同区域的严重程度和变化趋势。

7月19日-8月8日期间辽宁地区 Rt 值变化热力图

以中国辽宁地区为例,从上图中可以看到,从7月20日至7月28日,辽宁地区的热力图颜色不断加深,Rt 值从小于1逐渐上升至1.5,这一时期辽宁地区新增较多病例,病毒传播呈扩散趋势,感染人数有所上升。7月28日以后,热力图颜色减淡,Rt 值回落至接近1,由此可以看出防控措施开始起效,疫情传播态势逐渐得到了控制。

多年来,Rt 值的计算方法在不断改进。在此次 COVID Insights 网站的更新中,我们使用了一个开源的模型(https://github.com/epiforecasts/covid)来计算 Rt 值。在计算某天的 Rt 值时,我们用基于动态窗口的历史确诊数据来得到更加稳定、可靠的估计结果。考虑到数据中可能会出现的缺失和错误(例如确诊数为负),我们则通过利用滑动时间窗口内的确诊数据对某天的确诊人数进行了平滑处理(smoothing),有效缓解了数据误差带来的影响。

按时序动态观察基因组分析

本次更新,除了在感染数据分析版块新增有效再生数 Rt,基因组分析版块也新增了时序播放功能,展示每个位点变异类型数量的时序动态。用户可以在这里观看到更细粒度的可视化呈现。

新功能提供了针对位点的变异明细列表。在选定氨基酸的种类和时间段后,用户可以查看当前位点该氨基酸在各大洲对应的序列数量和这些序列在该大洲全部序列中的占比情况,以及变化趋势。

在基因组分析版块的最后,还提供了对基因组分析结果的下载功能,同时,在蛋白质结构版块,用户也可以下载蛋白质结构预测结果

为了更加方便用户浏览 COVID Insights 网站,此次更新也将网站的页面进行了重组,分为流行病学、病毒学和研究趋势三大部分,并在此基础上进一步细分。流行病学页面包含感染数据分析和干预模型,病毒学页面包含了基因组分析和蛋白质结构的信息,研究趋势版块则仍保留与 COVID-19 相关的全球研究趋势,用两级结构帮助用户快速、清晰地找到所需的功能。

欢迎大家使用 COVID Insights 网站的新功能!我们希望可以赋能更多对新冠病毒数据分析感兴趣的研究人员,并且为抗疫作出更多贡献。


本账号为微软亚洲研究院的官方知乎账号。本账号立足于计算机领域,特别是人工智慧相关的前沿研究,旨在为人工智慧的相关研究提供范例,从专业的角度促进公众对人工智慧的理解,并为研究人员提供讨论和参与的开放平台,从而共建计算机领域的未来。

微软亚洲研究院的每一位专家都是我们的智囊团,你在这个账号可以阅读到来自计算机科学领域各个不同方向的专家们的见解。请大家不要吝惜手里的「邀请」,让我们在分享中共同进步。

也欢迎大家关注我们的微博和微信 (ID:MSRAsia) 账号,了解更多我们的研究。

发布于 2020-08-14继续浏览内容知乎发现更大的世界打开Chrome继续[已重置][已重置]

收集疫情防控信息,可以认准中国移动推出的简讯小程序服务,简讯小程序提供了简讯、移动认证、网页程序的能力,具备终端全覆盖、网路全覆盖的优势。

在疫情期间,中国移动免费提供简讯小程序+疫情表单解决方案,可以一站式快速收集疫情信息。管理人员通过在后台创建表单,一键下发至组织内成员,成员点击简讯链接即可开始填报相关信息,无需关注任何公众号、无需安装任何App,超低门槛,填报率大大提高。

具体开通方式可联系当地移动客户经理咨询。


收集疫情防控信息,可以认准中国移动推出的简讯小程序服务,简讯小程序提供了简讯、移动认证、网页程序的能力,具备终端全覆盖、网路全覆盖的优势。

在疫情期间,中国移动免费提供简讯小程序+疫情表单解决方案,可以一站式快速收集疫情信息。管理人员通过在后台创建表单,一键下发至组织内成员,成员点击简讯链接即可开始填报相关信息,无需关注任何公众号、无需安装任何App,超低门槛,填报率大大提高。

具体开通方式可联系当地移动客户经理咨询。


最近疫情反复,国内多个省市都有了零星的确诊病例。

各地学校、政府机关、社区街道办、企事业单位都在严防。这个时候我们按照相关要求,尽量减少不必要的人员流动。

在居家学习、办公的时候,如何才能保证效率?在面对纷繁的收集信息,如何才能避免焦头烂额?文

传统的纸质登记要耗费大量时间,还有接触的风险。更好的办法是使用在线收集表,因为它能:

  • 一键转发到QQ或微信群,点击即可填写
  • 小程序无需下载和安装
  • 单份收集表支持百万条信息收集
  • 实时汇总到在线表格,减少接触
  • 线下扫码也可填写

微信小程序可以针对疫情防控进行快速信息收集统计,微信搜索「接龙管家」小程序,可以进行信息收集,通知发布、数据导出。无论是防疫通知、健康打卡、信息填表、健康码上传,都可以一键统计,并且导出也很方便。

无论是企业还是个人都可以通过接龙管家进行疫情上报,对于疫情线索的收集非常高效省时,同时数据经过多层加密安全可靠,完美解决了微信群成员统计难,收集难的问题。

接龙管家在疫情期间为一千多万用户提供了免费的防疫统计服务,并且组建了三十余个微信群快速解决用户使用问题。

发布于 01-25继续浏览内容知乎发现更大的世界打开Chrome继续百数百数?

已认证的官方帐号

如果你需要收集员工信息或是辖区住户信息的话,可以使用百数低代码开发平台。

目前平台应用中心已经封装了一款名为「疫情防控综合管理」的应用可共使用。只需要安装即可使用。

主要适合以下三种场景:

1、企业内员工核算检测申报,核算检测查询和提醒;

2、员工动向申请,用于记录员工外出动向,特别适合春节返乡记录行程;

3、辖区疫情防控登记,适合社区或者村委会记录返乡人员信息,管控人员流动记录。

编辑于 02-22继续浏览内容知乎发现更大的世界打开Chrome继续我是一只小小小小鱼我是一只小小小小鱼大数据

1. 全媒体实时监测。通过采用蚁坊软体的网路舆情监测系统,对全网新闻媒体网站、媒体平台、官方媒体、权威媒体博主等进行全方位监测。毕竟,在这抗击新型肺炎疫情的非常时期,各大媒体会对疫情数据、专家解读、救援情况、疫情发展以及相关问题等信息进行同步跟进和通报,也有些会发布一些事件的观点看法文章和信息。因此,可以通过收集统计相关媒体的新闻报道、观点、评论等信息,查看抗击肺炎的舆情数据信息。

2. 抗击肺炎的相关话题全面监测。当前各大媒体网站、社交平台上都会不断涌现出与疫情方面相关的话题信息,而通过利用蚁坊软体的网路舆情监测系统全面监测公众对疫情方面的话题讨论信息,不仅可以收集和统计抗击肺炎的舆情数据信息,还可助力用户掌握网民对疫情的舆情热度,辅助决策优化。

3. 实时精准监测疫情舆情动态。网路时代,数据信息都是时时在更新的,抗击肺炎的舆情数据信息亦是如此。因此,为了确保第一时间获得最权威、最实时、最准确的疫情舆情动态数据信息,及时制定各项应急措施和工作方案。通过借助蚁坊软体的网路舆情监测系统,可订阅疫情相关的主题或设置多种关键词,系统会自动24小时监测与之相关的信息,过滤无效信息,确保抗击肺炎的舆情数据信息统计的精准性。

舆情监测_舆情监控系统_舆情监测软体_免费试用?

www.eefung.com


如果你需要收集员工信息或是辖区住户信息的话,可以使用百数低代码开发平台。

目前平台应用中心已经封装了一款名为「疫情防控综合管理」的应用可共使用。只需要安装即可使用。

主要适合以下三种场景:

1、企业内员工核算检测申报,核算检测查询和提醒;

2、员工动向申请,用于记录员工外出动向,特别适合春节返乡记录行程;

3、辖区疫情防控登记,适合社区或者村委会记录返乡人员信息,管控人员流动记录。

编辑于 02-22继续浏览内容知乎发现更大的世界打开Chrome继续我是一只小小小小鱼我是一只小小小小鱼大数据

1. 全媒体实时监测。通过采用蚁坊软体的网路舆情监测系统,对全网新闻媒体网站、媒体平台、官方媒体、权威媒体博主等进行全方位监测。毕竟,在这抗击新型肺炎疫情的非常时期,各大媒体会对疫情数据、专家解读、救援情况、疫情发展以及相关问题等信息进行同步跟进和通报,也有些会发布一些事件的观点看法文章和信息。因此,可以通过收集统计相关媒体的新闻报道、观点、评论等信息,查看抗击肺炎的舆情数据信息。

2. 抗击肺炎的相关话题全面监测。当前各大媒体网站、社交平台上都会不断涌现出与疫情方面相关的话题信息,而通过利用蚁坊软体的网路舆情监测系统全面监测公众对疫情方面的话题讨论信息,不仅可以收集和统计抗击肺炎的舆情数据信息,还可助力用户掌握网民对疫情的舆情热度,辅助决策优化。

3. 实时精准监测疫情舆情动态。网路时代,数据信息都是时时在更新的,抗击肺炎的舆情数据信息亦是如此。因此,为了确保第一时间获得最权威、最实时、最准确的疫情舆情动态数据信息,及时制定各项应急措施和工作方案。通过借助蚁坊软体的网路舆情监测系统,可订阅疫情相关的主题或设置多种关键词,系统会自动24小时监测与之相关的信息,过滤无效信息,确保抗击肺炎的舆情数据信息统计的精准性。

舆情监测_舆情监控系统_舆情监测软体_免费试用?

www.eefung.com


1. 全媒体实时监测。通过采用蚁坊软体的网路舆情监测系统,对全网新闻媒体网站、媒体平台、官方媒体、权威媒体博主等进行全方位监测。毕竟,在这抗击新型肺炎疫情的非常时期,各大媒体会对疫情数据、专家解读、救援情况、疫情发展以及相关问题等信息进行同步跟进和通报,也有些会发布一些事件的观点看法文章和信息。因此,可以通过收集统计相关媒体的新闻报道、观点、评论等信息,查看抗击肺炎的舆情数据信息。

2. 抗击肺炎的相关话题全面监测。当前各大媒体网站、社交平台上都会不断涌现出与疫情方面相关的话题信息,而通过利用蚁坊软体的网路舆情监测系统全面监测公众对疫情方面的话题讨论信息,不仅可以收集和统计抗击肺炎的舆情数据信息,还可助力用户掌握网民对疫情的舆情热度,辅助决策优化。

3. 实时精准监测疫情舆情动态。网路时代,数据信息都是时时在更新的,抗击肺炎的舆情数据信息亦是如此。因此,为了确保第一时间获得最权威、最实时、最准确的疫情舆情动态数据信息,及时制定各项应急措施和工作方案。通过借助蚁坊软体的网路舆情监测系统,可订阅疫情相关的主题或设置多种关键词,系统会自动24小时监测与之相关的信息,过滤无效信息,确保抗击肺炎的舆情数据信息统计的精准性。

舆情监测_舆情监控系统_舆情监测软体_免费试用?

www.eefung.com


因为我是有数模作业的,所以曾经一直苦苦找寻疫情期间的数据,也特别明白大家找不到时的那种急切心理。

曾经也在知乎上找过,但是由于自身能力的不济,也因此没有办法看懂一众大佬的文章。

穷学生自然也没有去付费购买了。

但最终我还是通过多种途径找到了数据。

如果各位小伙伴想要,可以关注加私信找我免费领取的哦。

大一小学生将竭诚为您服务。


可以借助一款叫做接龙统计表的小程序来完成,直接在微信打开以后创建一个统计问答,发布以后就可以邀请人员参与,在问答详情里面可以点击报表下载按钮生成EXCEL表,然后导出到本地使用。


推荐阅读:
相关文章