Средно 1,9% — 2,8% увеличение в BD-скорост за ниско забавяне, Средно 1,6% — 2,6% увеличение в BD-рейт за случаен достъп

В тази история е представен IFCNN от Корейския институт за напреднали науки и технологии (KAIST). Вътрешното филтриране, базирано на конволюционна невронна мрежа (CNN), е изобретено за премахване на шума/деблокиране, за да се увеличи допълнително ефективността на кодирането. Това е документ от IVMSP Workshop 2016с повече от 50 цитирания. (Sik-Ho Tsang @ Medium)

Контур

  1. Предложен IFCNN
  2. Експериментални резултати

1. Предложен IFCNN

  • Вместо да се постави на изхода на реконструираното изображение/видео, IFCNN се поставя вътре в цикъла на кодиране. Ето защо се нарича in-loop CNN.
  • Както е показано по-горе, Примерно адаптивно отместване (SAO) се заменя с IFCNN.
  • Еднобитово сигнализиране е необходимо за включване/изключване на IFCNN.

  • IFCNN е много плитък CNN, както е показано по-горе.
  • W1 е с размер 9×9×64, а B1 е 64-измерен вектор.
  • W2 е с размер 64×3×3×32, а B2 е 32-измерен вектор.

  • W3 е с размер 32×5×5×1, а B3 е едномерен вектор.
  • И ReLU не се прилага.

  • Средна квадратична грешка (MSE) се използва като функция на загуба L за обучение.

2. Експериментални резултати

  • Средно 4,8%увеличение в BD-скорост за All Intra конфигурация.
  • Средно 1,9% — 2,8%увеличение в BD-скорост за конфигурация Low Delay P.
  • Средно 1,6% — 2,6% увеличение на скоростта на BD за конфигурация на произволен достъп.
  • Когато използвате функцията vl_nnconv() в MatConvNet, са необходими 0,4 секунди на един кадър в последователностите 416×240 и 1,2 секунди на един кадър в последователностите 832×480 за IFCNN структурата в компютър с 3 GHz CPU и 32 GB RAM.
  • Някои визуализации:

справка

[2016 IVMSP Workshop] [IFCNN]
Вътрешно филтриране, базирано на CNN за подобряване на ефективността на кодирането

Моите предишни отзиви

Класификация на изображението[LeNet] [AlexNet] [Maxout] [NIN] [ZFNet] [VGGNet] [Highway] [SPPNet] [ PReLU-Net] [STN] [DeepImage] [SqueezeNet] [GoogLeNet / Inception-v1] [BN-Inception / Inception-v2] [Inception-v3] [ Inception-v4] [Xception] [MobileNetV1] [ResNet] [ResNet преди активиране] [RiR] [RoR] [Stochastic Depth] [WRN] [ Shake-Shake] [FractalNet] [Trimps-Soushen] [PolyNet] [ResNeXt] [DenseNet] [PyramidNet] [DRN] [DPN] [ Мрежа за остатъчно внимание] [DMRNet / DFN-MR] [IGCNet / IGCV1] [MSDNet] [ShuffleNet V1] [SENet] [NASNet] [MobileNetV2]

Откриване на обект[OverFeat] [R-CNN] [Бърз R-CNN] [По-бърз R-CNN] [MR-CNN & S-CNN] [ DeepID-Net] [CRAFT] [R-FCN] [ION] [MultiPathNet] [NoC] [Hikvision] [GBD-Net / GBD-v1 & GBD-v2 ] [G-RMI] [TDM] [SSD] [DSSD] [YOLOv1] [YOLOv2 / YOLO9000] [YOLOv3] [FPN] [RetinaNet ] [DCN]

Семантична сегментация[FCN] [DeconvNet] [DeepLabv1 & DeepLabv2] [CRF-RNN] [SegNet] [ParseNet] [DilatedNet] [ DRN] [RefineNet] [GCN] [PSPNet] [DeepLabv3] [LC] [FC-DenseNet] [IDW-CNN] [SDN]

Сегментиране на биомедицинско изображение[CUMedVision1] [CUMedVision2 / DCAN] [U-Net] [CFS-FCN] [U-Net+ResNet] [MultiChannel] [V-Net] [3D U-Net] [M²FCN] [SA] [QSA+QNT] [3D U-Net+ResNet]

Сегментиране на екземпляр[SDS] [Hypercolumn] [DeepMask] [SharpMask] [MultiPathNet] [MNC] [InstanceFCN] [FCIS]

Супер разделителна способност[SRCNN] [FSRCNN] [VDSR] [ESPCN] [RED-Net] [DRCN] [DRRN] [LapSRN & MS-LapSRN] [SRDenseNet]

Оценка на човешка поза[DeepPose] [Tompson NIPS’14] [Tompson CVPR’15] [CPM]

Последваща обработка на кодек[ARCNN] [Lin DCC’16] [IFCNN] [Li ICME’17]