最好用的 AI 开源数据集 Top 39:NLP、语音等 6 大类
<p>以下是精心收集的一些非常好的开放数据集,也是做 AI 研究不容错过的数据集。</p> <h3>标签解释</h3> <p style="text-align: center;"><img src="https://simg.open-open.com/show/606a76a885c6114d94f77452f0a940bb.png"></p> <p>【经典】这些是在 AI 领域中非常著名、众所周知的数据集。很少有研究者或工程师没有听说过它们。</p> <p>【有用】这些是更加接近现实世界的、精心设计的数据集。而且,这些数据集通常在产品和研发两方面都有用。</p> <p>【学术】这些是在机器学习和 AI 的学术研究中通常作为基准或基线使用的数据集。无论好坏,研究人员都使用这些数据集来验证算法。</p> <p>【陈旧】这些数据集,无论是否实用,已经有相当长历史了。</p> <h3>计算机视觉</h3> <p>【学术、经典、陈旧】MNIST:最常用的完整性检查数据集,图像大小为25x25的B&W手写数字,但在 MNIST 上性能良好,并不意味着模型本身很好。</p> <p>地址: <a href="/misc/goto?guid=4959738690790706439" rel="nofollow,noindex">http://pjreddie.com/projects/mnist-in-csv/</a></p> <p>【经典、陈旧】CIFAR 10 & CIFAR 100:32x32的彩色图像数据集,虽然已经不常用,但也可以用作完整性检查。</p> <p>地址: <a href="/misc/goto?guid=4959012527025411642" rel="nofollow,noindex">https://www.cs.toronto.edu/~kriz/cifar.html</a></p> <p>【有用、学术、经典】ImageNet:新算法实际上使用的图像数据集,很多图像 API 公司从其 REST 接口获取标签,这些标签被怀疑与 ImageNet 的下一级 WordNet 的 1000 个类很相似。</p> <p>地址: <a href="/misc/goto?guid=4959738690918052321" rel="nofollow,noindex">http://image-net.org/</a></p> <p>LSUN:用于场景理解和多任务辅助(房间布局估计,显着性预测等)。</p> <p>地址:http://lsun.cs.princeton.edu/2016/</p> <p>【学术】PASCAL VOC:一个通用的图像分割/分类数据集,对构建真实图像的注释用处不是特别大,但对于基线很有用。</p> <p>地址: <a href="/misc/goto?guid=4959738691000595271" rel="nofollow,noindex">http://host.robots.ox.ac.uk/pascal/VOC/</a></p> <p>【学术】SVHN:数据来源于 Google 街景视图中的房屋数量,可以用作野外的周期性 MNIST。</p> <p>地址: <a href="/misc/goto?guid=4959622550663288491" rel="nofollow,noindex">http://ufldl.stanford.edu/housenumbers/</a></p> <p>MS COCO:一个通用的图像理解/字幕数据集。</p> <p>地址: <a href="/misc/goto?guid=4959663277878594396" rel="nofollow,noindex">http://mscoco.org/</a></p> <p>【有用】Visual Genome:非常详细的视觉知识数据集,包含约100K图像的深字母。</p> <p>地址: <a href="/misc/goto?guid=4959738691141812313" rel="nofollow,noindex">http://visualgenome.org/</a></p> <p>【有用、学术、经典、陈旧】Labeled Faces in the Wild:使用名称标识符标记的面部区域数据集,常用于训练面部识别系统。</p> <p>地址: <a href="/misc/goto?guid=4959663884255715483" rel="nofollow,noindex">http://vis-www.cs.umass.edu/lfw/</a></p> <h3>自然语言处理</h3> <p>【有用、学术】Text Classification Datasets:一个文本分类数据集,包含8个可用于文本分类的子数据集,样本大小从120K到3.6M,问题范围从2级到14级,数据来源于 DBPedia、Amazon、Yelp、Yahoo!、Sogou 和 AG。</p> <p>地址: <a href="/misc/goto?guid=4959738691256590530" rel="nofollow,noindex">http://t.cn/RJDVxr4</a></p> <p>【有用、学术】WikiText:由 Salesforce MetaMind 设计的大型语言建模语料库,来源于维基百科文章。</p> <p>地址: <a href="/misc/goto?guid=4959738691348040484" rel="nofollow,noindex">http://t.cn/RJDVSRy/</a></p> <p>【有用】Question Pairs:第一个来源于 Quora 的包含重复/语义相似性标签的数据集。</p> <p>地址: <a href="/misc/goto?guid=4959738691438232017" rel="nofollow,noindex">https://data.quora.com/First-Quora-Dataset-Release-Question-Pairs</a></p> <p>【有用、学术】SQuAD:斯坦福大学的问答数据集,广泛用于问题回答和阅读理解,其中每个问题和答案都是文本片段的形式。</p> <p>地址: <a href="/misc/goto?guid=4959738691519368973" rel="nofollow,noindex">https://rajpurkar.github.io/SQuAD-explorer/</a></p> <p>CMU Q/A Dataset:人工生成的问题/答案对,难度评级来自维基百科文章。</p> <p>地址: <a href="/misc/goto?guid=4959738691599572808" rel="nofollow,noindex">http://www.cs.cmu.edu/~ark/QA-data/</a></p> <p>【有用】Maluuba Datasets:用于状态性的自然语言理解研究的人工制作的精细数据集。</p> <p>地址: <a href="/misc/goto?guid=4959738691687798221" rel="nofollow,noindex">https://datasets.maluuba.com/</a></p> <p>【有用、学术】Billion Words:一个大型、通用的语言建模数据集,常用于如 word2vec 或 Glove 的分布式词语表征。</p> <p>地址: <a href="/misc/goto?guid=4959738691771876232" rel="nofollow,noindex">http://www.statmt.org/lm-benchmark/</a></p> <p>【有用、学术】Common Crawl:Petabyte 级规模的网络爬行数据集,常用于学习词嵌入。</p> <p>地址: <a href="/misc/goto?guid=4959738691851960938" rel="nofollow,noindex">http://commoncrawl.org/the-data/</a></p> <p>【学术、经典】bAbi:来自 FAIR 的阅读理解和问答应答数据集。</p> <p>地址: <a href="/misc/goto?guid=4959738691935462082" rel="nofollow,noindex">https://research.fb.com/projects/babi/</a></p> <p>【学术】The Children’s Book Test:从古登堡计划的童书中提取的(问题+上下文,答案)的基线,该数据集对问题回答、阅读理解和模拟陈述有用。</p> <p>地址:https://research.fb.com/projects/babi/</p> <p>【学术、经典、陈旧】Stanford Sentiment Treebank:一个标准情感数据集,数据集中每个句子解析树的每个节点都有精细的情感注释。</p> <p>地址: <a href="/misc/goto?guid=4959738692020705344" rel="nofollow,noindex">http://nlp.stanford.edu/sentiment/code.html</a></p> <p>【经典、陈旧】20 Newsgroups:一个文本分类的经典数据集,通常用于纯分类或作为任何 IR/索引算法的基准。</p> <p>地址: <a href="/misc/goto?guid=4959738692105609857" rel="nofollow,noindex">http://qwone.com/~jason/20Newsgroups/</a></p> <p>【经典、陈旧】Reuters:一个较旧,完全基于分类的新闻文本数据集,常用于教程。</p> <p>地址: <a href="/misc/goto?guid=4959738692188328926" rel="nofollow,noindex">http://t.cn/RJDfi7T</a></p> <p>【经典、陈旧】IMDB:一个比较旧,规模也相对较小的二院情感分类数据集。</p> <p>地址: <a href="/misc/goto?guid=4959738692277430961" rel="nofollow,noindex">http://ai.stanford.edu/~amaas/data/sentiment/</a></p> <p>【经典、陈旧】UCI’s Spambase:这是一个年代较久远的、经典的垃圾电子邮件数据集,来源是著名的 UCI 机器学习库。由于该数据集在设计细节上的独特之处,可以用作学习个性化垃圾邮件过滤的一个有趣的基线。</p> <p>地址: <a href="/misc/goto?guid=4959738692363599914" rel="nofollow,noindex">https://archive.ics.uci.edu/ml/datasets/Spambase</a></p> <p style="text-align: center;"><img src="https://simg.open-open.com/show/c6dfa9c680fa51c3967b96dde389da27.png"></p> <p>大多数语音识别数据集是专有的,因为这些数据对于创建该数据集的公司来说具有很大价值。因此,这部分的可用公开数据集多数比较陈旧。</p> <p>【学术、陈旧】2000 HUB5 English:仅包含英语的语音数据集,百度最近的论文《深度语音:扩展端对端语音识别》使用的是这个数据集。</p> <p>地址: <a href="/misc/goto?guid=4959738692448940567" rel="nofollow,noindex">https://catalog.ldc.upenn.edu/LDC2002T43</a></p> <p>【学术】LibriSpeech:包含文本和语音的有声读物数据集,由近500小时的多人朗读的清晰音频组成,且包含书籍的章节结构。</p> <p>地址: <a href="/misc/goto?guid=4959663277387600206" rel="nofollow,noindex">http://www.openslr.org/12/</a></p> <p>【有用、学术】VoxForge:带口音的语音清洁数据集,对测试模型在不同重音或语调下的鲁棒性非常有用。</p> <p>地址: <a href="/misc/goto?guid=4959738692567038787" rel="nofollow,noindex">http://www.voxforge.org/</a></p> <p>【学术、经典、陈旧】TIMIT:英文语音识别数据集。</p> <p>地址: <a href="/misc/goto?guid=4959738692650789538" rel="nofollow,noindex">https://catalog.ldc.upenn.edu/LDC93S1</a></p> <p>【有用】CHIME:包含环境噪音的语音识别挑战赛数据集。该数据集包含真实、模拟和清洁的语音录音,具体来说,包括4个扬声器在4个有噪音环境下进行的将近9000次录音,模拟数据是将多个环境组合及在无噪音环境下记录的数据。</p> <p>地址: <a href="/misc/goto?guid=4959738692734018666" rel="nofollow,noindex">http://spandh.dcs.shef.ac.uk/chime_challenge/data.html</a></p> <p>TED-LIUM:TED Talk 的音频数据集,包含1495个TED演讲的录音及全文的文字稿。</p> <p>地址: <a href="/misc/goto?guid=4959738692821255067" rel="nofollow,noindex">http://www-lium.univ-lemans.fr/en/content/ted-lium-corpus</a></p> <h3>推荐和排序系统</h3> <p>【经典、陈旧】Netflix Challenge:第一个主要的 Kaggle 挑战赛数据集,但由于隐私问题,只有非正式的数据集提供。</p> <p>地址: <a href="/misc/goto?guid=4958876793853549440" rel="nofollow,noindex">http://www.netflixprize.com/</a></p> <p>【有用、学术、经典】MovieLens:多种大小的电影评论数据,通常用于基线协同过滤。</p> <p>地址: <a href="/misc/goto?guid=4959738692932699738" rel="nofollow,noindex">https://grouplens.org/datasets/movielens/</a></p> <p>Million Song Dataset:Kaggle 上的大型、元数据丰富的开源数据集,对混合推荐系统有用。</p> <p>地址: <a href="/misc/goto?guid=4959738693016418143" rel="nofollow,noindex">https://www.kaggle.com/c/msdchallenge</a></p> <p>【有用】Last.fm:可访问底层社交网络及其他元数据的音乐推荐数据集,这些元数据对混合系统很有用。</p> <p>地址: <a href="/misc/goto?guid=4959738693108196418" rel="nofollow,noindex">http://grouplens.org/datasets/hetrec-2011/</a></p> <h3>网络和图表</h3> <p style="text-align: center;"><img src="https://simg.open-open.com/show/5c20c64bc5038fabf2572d0bf201e984.png"></p> <p>【学术】Amazon Co-Purchasing and Amazon Reviews:亚马逊网站的“买了该产品的用户也买了......”板块的数据,以及相关产品的亚马逊评论数据。适合用于推荐系统。</p> <p>地址: <a href="/misc/goto?guid=4959738693180776054" rel="nofollow,noindex">http://snap.stanford.edu/data/amazon-meta.html</a></p> <p>Friendster Social Network Dataset:包含103,750,348个 Friendster 用户的好友列表的匿名数据集。</p> <p>地址: <a href="/misc/goto?guid=4959738693261754503" rel="nofollow,noindex">https://archive.org/details/friendster-dataset-201107</a></p> <h3>地理空间数据</h3> <p>【有用、经典】OpenStreetMap:免费许可的全球矢量数据集,包含美国人口普查局的 TIGER数据。</p> <p>地址: <a href="/misc/goto?guid=4959738693344950879" rel="nofollow,noindex">http://wiki.openstreetmap.org/wiki/Planet.osm</a></p> <p>【有用】Landsat8:卫星拍摄的地球表面照片数据,每隔几周更新一次。</p> <p>地址: <a href="/misc/goto?guid=4959738693441891492" rel="nofollow,noindex">https://landsat.usgs.gov/landsat-8</a></p> <p>【有用】NEXRAD:多普勒雷达扫描的美国大气环境数据。</p> <p>地址: <a href="/misc/goto?guid=4959738693524242164" rel="nofollow,noindex">https://www.ncdc.noaa.gov/data-access/radar-data/nexrad</a></p> <p>结语:</p> <p>人们常常以为在一个数据集上解决了问题就等同于得到好的产品了。但在使用这些数据集作为验证或概念证明时,不要忘记用更新、更接近现实的数据来测试产品的功能,从而能够作出改进。一个成功的以数据作为驱动力的企业通常能够从他们收集新的、专有的数据的能力中获益,进而提升竞争力。</p> <p> </p> <p>来自:https://medium.com/startup-grind/fueling-the-ai-gold-rush-7ae438505bc2#.3x80s6mw4</p> <p> </p>
本文由用户 sylthas 自行上传分享,仅供网友学习交流。所有权归原作者,若您的权利被侵害,请联系管理员。
转载本站原创文章,请注明出处,并保留原始链接、图片水印。
本站是一个以用户分享为主的开源技术平台,欢迎各类分享!