СИФАР-10 - CIFAR-10
В Набор данных CIFAR-10 (Канадский институт перспективных исследований ) представляет собой набор изображений, которые обычно используются для обучения машинное обучение и компьютерное зрение алгоритмы. Это один из наиболее широко используемых наборов данных для исследований в области машинного обучения.[1][2] Набор данных CIFAR-10 содержит 60 000 цветных изображений 32x32 10 различных классов.[3] 10 различных классов представляют самолеты, автомобили, птиц, кошек, оленей, собак, лягушек, лошадей, корабли и грузовики. Есть 6000 изображений каждого класса.[4]
Компьютерные алгоритмы распознавания объектов на фотографиях часто учатся на примере. CIFAR-10 - это набор изображений, которые можно использовать, чтобы научить компьютер распознавать объекты. Поскольку изображения в CIFAR-10 имеют низкое разрешение (32x32), этот набор данных может позволить исследователям быстро опробовать различные алгоритмы, чтобы увидеть, что работает. Различные виды сверточные нейронные сети как правило, лучше всех распознают изображения в CIFAR-10.
CIFAR-10 - это помеченное подмножество 80 миллионов крошечных изображений набор данных. Когда набор данных был создан, учащимся заплатили за то, чтобы они пометили все изображения.[5]
Научные статьи, содержащие новейшие результаты по CIFAR-10
Это таблица некоторых исследовательских работ, в которых утверждается, что получены самые современные результаты по набору данных CIFAR-10. Не все документы стандартизированы для использования одних и тех же методов предварительной обработки, таких как переворачивание изображения или сдвиг изображения. По этой причине вполне возможно, что заявление о современном уровне техники в одной статье может иметь более высокий уровень ошибок, чем более раннее заявление о современном состоянии, но все же остается в силе.
Исследовательская работа | Частота ошибок (%) | Дата публикации |
---|---|---|
Сверточные сети глубокого убеждения на CIFAR-10[6] | 21.1 | Август 2010 г. |
Maxout Networks[7] | 9.38 | 13 февраля 2013 г. |
Широкие остаточные сети[8] | 4.0 | 23 мая, 2016 |
Поиск нейронной архитектуры с обучением с подкреплением[9] | 3.65 | 4 ноября 2016 г. |
Дробное максимальное объединение[10] | 3.47 | 18 декабря 2014 г. |
Плотно связанные сверточные сети[11] | 3.46 | 24 августа 2016 г. |
Регуляризация встряски-встряски[12] | 2.86 | 21 мая, 2017 |
Связанные ансамбли нейронных сетей[13] | 2.68 | 18 сентября 2017 г. |
Регуляризация ShakeDrop[14] | 2.67 | 7 февраля 2018 г. |
Улучшенная регуляризация сверточных нейронных сетей с вырезом[15] | 2.56 | 15 августа 2017 г. |
Регулярная эволюция поиска архитектуры классификатора изображений[16] | 2.13 | 6 февраля 2018 г. |
Переосмысление рекуррентных нейронных сетей и другие улучшения для классификации изображений[17] | 1.64 | 31 июля 2020 г. |
AutoAugment: изучение политик расширения на основе данных[18] | 1.48 | 24 мая 2018 г. |
Обзор поиска нейронной архитектуры[19] | 1.33 | 4 мая, 2019 |
GPipe: эффективное обучение гигантских нейронных сетей с использованием конвейерного параллелизма[20] | 1.00 | 16 ноя 2018 |
Смотрите также
Рекомендации
- ^ «Измерение прогресса ИИ». Фонд электронных рубежей. 2017-06-12. Получено 2017-12-11.
- ^ "Популярные наборы данных с течением времени | Kaggle". www.kaggle.com. Получено 2017-12-11.
- ^ Надеюсь, Том; Resheff, Yehezkel S .; Лидер, Итай (2017-08-09). Изучение TensorFlow: руководство по созданию систем глубокого обучения. "O'Reilly Media, Inc.". С. 64–. ISBN 9781491978481. Получено 22 января 2018.
- ^ Ангелов, Пламен; Гегов, Александр; Джейн, Крисина; Шен, Цян (2016-09-06). Достижения в системах вычислительного интеллекта: материалы, представленные на 16-м семинаре в Великобритании по вычислительному интеллекту, 7–9 сентября 2016 г., Ланкастер, Великобритания. Издательство Springer International. С. 441–. ISBN 9783319465623. Получено 22 января 2018.
- ^ Крижевский, Алексей (2009). «Изучение нескольких слоев функций из крошечных изображений» (PDF).
- ^ "Сверточные сети глубокого убеждения на CIFAR-10" (PDF).
- ^ Гудфеллоу, Ян Дж .; Вард-Фарли, Дэвид; Мирза, Мехди; Курвиль, Аарон; Бенхио, Йошуа (13 февраля 2013 г.). "Maxout Networks". arXiv:1302.4389 [stat.ML ].
- ^ Загоруйко, Сергей; Комодакис, Никос (23 мая 2016 г.). «Широкие остаточные сети». arXiv:1605.07146 [cs.CV ].
- ^ Зоф, Баррет; Ле, Куок В. (04.11.2016). «Поиск нейронной архитектуры с обучением с подкреплением». arXiv:1611.01578 [cs.LG ].
- ^ Грэм, Бенджамин (18 декабря 2014 г.). «Дробное максимальное объединение». arXiv:1412.6071 [cs.CV ].
- ^ Хуанг, Гао; Лю, Чжуан; Weinberger, Kilian Q .; ван дер Маатен, Лоренс (2016-08-24). «Плотно связанные сверточные сети». arXiv:1608.06993 [cs.CV ].
- ^ Гастальди, Ксавьер (21 мая 2017 г.). «Регуляризация встряски». arXiv:1705.07485 [cs.LG ].
- ^ Датт, Анувабх (18.09.2017). «Связанные ансамбли нейронных сетей». arXiv:1709.06053 [cs.CV ].
- ^ Ямада, Йошихиро; Ивамура, Масакадзу; Кисе, Коичи (07.02.2018). «Регуляризация Шакедропа для глубокого остаточного обучения». Доступ IEEE. 7: 186126–186136. arXiv:1802.02375. Дои:10.1109 / ACCESS.2019.2960566. S2CID 54445621.
- ^ Терренс, ДеВриз; У., Тейлор, Грэм (2017-08-15). «Улучшенная регуляризация сверточных нейронных сетей с вырезом». arXiv:1708.04552 [cs.CV ].
- ^ Реал, Эстебан; Аггарвал, Алок; Хуан, Яньпин; Ле, Куок В. (05.02.2018). «Регулярная эволюция поиска архитектуры классификатора изображений с вырезом». arXiv:1802.01548 [cs.NE ].
- ^ Nguyen, Huu P .; Рибейро, Бернардете (31.07.2020). «Переосмысление рекуррентных нейронных сетей и другие улучшения для классификации изображений». arXiv:2007.15161 [cs.CV ].
- ^ Кубук, Экин Д .; Зоф, Баррет; Грива, одуванчик; Васудеван, Виджай; Ле, Куок В. (24 мая 2018 г.). «AutoAugment: изучение политик расширения на основе данных». arXiv:1805.09501 [cs.CV ].
- ^ Вистуба, Мартин; Рават, Амбриш; Педапати, Теджасвини (4 мая 2019 г.). «Обзор поиска нейронной архитектуры». arXiv:1905.01392 [cs.LG ].
- ^ Хуан, Яньпин; Ченг, Юнлун; Чен, Дэхао; Ли, ХёкЧжун; Нгиам, Цзицюань; Le, Quoc V .; Чжифэн, Чжифэн (16.11.2018). «GPipe: эффективное обучение гигантских нейронных сетей с использованием конвейерного параллелизма». arXiv:1811.06965 [cs.CV ].
внешняя ссылка
- CIFAR-10 стр. - Дом набора данных
- Канадский институт перспективных исследований
Похожие наборы данных
- СИФАР-100: Аналогично CIFAR-10, но со 100 классами и 600 изображениями в каждом.
- ImageNet (ILSVRC): 1 миллион цветных изображений 1000 классов. Изображения Imagenet имеют более высокое разрешение, в среднем 469x387.
- Номера домов для просмотра улиц (SVHN): примерно 600 000 изображений 10 классов (цифры 0–9). Также цветные изображения 32x32.
- Набор данных из 80 миллионов крошечных изображений: CIFAR-10 - это помеченное подмножество этого набора данных.