Нестабильное распознавание лиц с использованием OpenCV

Я разрабатываю приложение для Android для распознавания лиц, используя JavaCV, который является неофициальной оболочкой OpenCV. . После импорта com.googlecode.javacv.cpp.opencv_contrib.FaceRecognizer я применяю и тестирую следующие известные методы:

  • LBPH с использованием метода createLBPHFaceRecognizer ()
  • FisherFace с использованием метода createFisherFaceRecognizer ()
  • EigenFace с использованием метода createEigenFaceRecognizer ()

Прежде чем распознать обнаруженное лицо, я исправляю повернутое лицо и обрезаю нужную зону, вдохновляя этот метод

В общем, когда я передаю камеру, лицо уже существует в базе данных, распознавание в порядке. Но это не всегда правильно. Иногда с большой вероятностью распознает неизвестное лицо (не найденное в Базе данных обученных выборок). Когда у нас есть в БД два или более лиц с похожими чертами (борода, усы, очки ...), распознавание этих лиц может быть очень ошибочным!

Чтобы предсказать результат с помощью тестового изображения лица, я применяю следующий код:

public String predict(Mat m) {

        int n[] = new int[1];
        double p[] = new double[1];
        IplImage ipl = MatToIplImage(m,WIDTH, HEIGHT);

        faceRecognizer.predict(ipl, n, p);

        if (n[0]!=-1)
         mProb=(int)p[0];
        else
            mProb=-1;
            if (n[0] != -1)
            return labelsFile.get(n[0]);
        else
            return "Unkown";
    }

Я не могу контролировать порог вероятности p, потому что:

  • Маленькое p ‹50 может предсказать правильный результат.
  • Высокое значение p> 70 может предсказывать ложный результат.
  • Средний p мог предсказать правильное или ложное.

Кроме того, я не понимаю, почему функция predic () иногда дает вероятность больше 100 в случае использования LBPH ??? а в случае с Фишером и Эйгеном это дает очень большие значения (> 2000) ?? Может ли кто-нибудь помочь в поиске решения этих причудливых проблем? Есть ли какие-нибудь предложения по повышению надежности распознавания? особенно в случае схожести двух разных лиц.

Ниже приведен весь класс, использующий Facerecognizer:

package org.opencv.javacv.facerecognition;

import static  com.googlecode.javacv.cpp.opencv_highgui.*;
import static  com.googlecode.javacv.cpp.opencv_core.*;

import static  com.googlecode.javacv.cpp.opencv_imgproc.*;
import static com.googlecode.javacv.cpp.opencv_contrib.*;

import java.io.File;
import java.io.FileOutputStream;
import java.io.FilenameFilter;
import java.util.ArrayList;

import org.opencv.android.Utils;
import org.opencv.core.Mat;

import com.googlecode.javacv.cpp.opencv_imgproc;
import com.googlecode.javacv.cpp.opencv_contrib.FaceRecognizer;
import com.googlecode.javacv.cpp.opencv_core.IplImage;
import com.googlecode.javacv.cpp.opencv_core.MatVector;

import android.graphics.Bitmap;
import android.os.Environment;
import android.util.Log;
import android.widget.Toast;

public  class PersonRecognizer {

    public final static int MAXIMG = 100;
    FaceRecognizer faceRecognizer;
    String mPath;
    int count=0;
    labels labelsFile;

     static  final int WIDTH= 128;
     static  final int HEIGHT= 128;;
     private int mProb=999;


    PersonRecognizer(String path)
    {
      faceRecognizer =  com.googlecode.javacv.cpp.opencv_contrib.createLBPHFaceRecognizer(2,8,8,8,200);
     // path=Environment.getExternalStorageDirectory()+"/facerecog/faces/";
     mPath=path;
     labelsFile= new labels(mPath);


    }

    void changeRecognizer(int nRec)
    {
        switch(nRec) {
        case 0: faceRecognizer = com.googlecode.javacv.cpp.opencv_contrib.createLBPHFaceRecognizer(1,8,8,8,100);
                break;
        case 1: faceRecognizer = com.googlecode.javacv.cpp.opencv_contrib.createFisherFaceRecognizer();
                break;
        case 2: faceRecognizer = com.googlecode.javacv.cpp.opencv_contrib.createEigenFaceRecognizer();
                break;
        }
        train();

    }

    void add(Mat m, String description) {
        Bitmap bmp= Bitmap.createBitmap(m.width(), m.height(), Bitmap.Config.ARGB_8888);

        Utils.matToBitmap(m,bmp);
        bmp= Bitmap.createScaledBitmap(bmp, WIDTH, HEIGHT, false);

        FileOutputStream f;
        try {
            f = new FileOutputStream(mPath+description+"-"+count+".jpg",true);
            count++;
            bmp.compress(Bitmap.CompressFormat.JPEG, 100, f);
            f.close();

        } catch (Exception e) {
            Log.e("error",e.getCause()+" "+e.getMessage());
            e.printStackTrace();

        }
    }

    public boolean train() {

        File root = new File(mPath);
        Log.i("mPath",mPath);
        FilenameFilter pngFilter = new FilenameFilter() {
            public boolean accept(File dir, String name) {
                return name.toLowerCase().endsWith(".jpg");

        };
        };

        File[] imageFiles = root.listFiles(pngFilter);

        MatVector images = new MatVector(imageFiles.length);

        int[] labels = new int[imageFiles.length];

        int counter = 0;
        int label;

        IplImage img=null;
        IplImage grayImg;

        int i1=mPath.length();


        for (File image : imageFiles) {
            String p = image.getAbsolutePath();
            img = cvLoadImage(p);

            if (img==null)
                Log.e("Error","Error cVLoadImage");
            Log.i("image",p);

            int i2=p.lastIndexOf("-");
            int i3=p.lastIndexOf(".");
            int icount=Integer.parseInt(p.substring(i2+1,i3)); 
            if (count<icount) count++;

            String description=p.substring(i1,i2);

            if (labelsFile.get(description)<0)
                labelsFile.add(description, labelsFile.max()+1);

            label = labelsFile.get(description);

            grayImg = IplImage.create(img.width(), img.height(), IPL_DEPTH_8U, 1);

            cvCvtColor(img, grayImg, CV_BGR2GRAY);

            images.put(counter, grayImg);

            labels[counter] = label;

            counter++;
        }
        if (counter>0)
            if (labelsFile.max()>1)
                faceRecognizer.train(images, labels);
        labelsFile.Save();
    return true;
    }

    public boolean canPredict()
    {
        if (labelsFile.max()>1)
            return true;
        else
            return false;

    }

    public String predict(Mat m) {
        if (!canPredict())
            return "";
        int n[] = new int[1];
        double p[] = new double[1];
        IplImage ipl = MatToIplImage(m,WIDTH, HEIGHT);
//      IplImage ipl = MatToIplImage(m,-1, -1);

        faceRecognizer.predict(ipl, n, p);

        if (n[0]!=-1)
         mProb=(int)p[0];
        else
            mProb=-1;
    //  if ((n[0] != -1)&&(p[0]<95))
        if (n[0] != -1)
            return labelsFile.get(n[0]);
        else
            return "Unkown";
    }




      IplImage MatToIplImage(Mat m,int width,int heigth)
      {


           Bitmap bmp=Bitmap.createBitmap(m.width(), m.height(), Bitmap.Config.ARGB_8888);


           Utils.matToBitmap(m, bmp);
           return BitmapToIplImage(bmp,width, heigth);

      }

    IplImage BitmapToIplImage(Bitmap bmp, int width, int height) {

        if ((width != -1) || (height != -1)) {
            Bitmap bmp2 = Bitmap.createScaledBitmap(bmp, width, height, false);
            bmp = bmp2;
        }

        IplImage image = IplImage.create(bmp.getWidth(), bmp.getHeight(),
                IPL_DEPTH_8U, 4);

        bmp.copyPixelsToBuffer(image.getByteBuffer());

        IplImage grayImg = IplImage.create(image.width(), image.height(),
                IPL_DEPTH_8U, 1);

        cvCvtColor(image, grayImg, opencv_imgproc.CV_BGR2GRAY);

        return grayImg;
    }



    protected void SaveBmp(Bitmap bmp,String path)
      {
            FileOutputStream file;
            try {
                file = new FileOutputStream(path , true);

            bmp.compress(Bitmap.CompressFormat.JPEG,100,file);  
            file.close();
            }
            catch (Exception e) {
                // TODO Auto-generated catch block
                Log.e("",e.getMessage()+e.getCause());
                e.printStackTrace();
            }

      }


    public void load() {
        train();

    }

    public int getProb() {
        // TODO Auto-generated method stub
        return mProb;
    }


}

person Y.AL    schedule 05.01.2014    source источник
comment
да, вам понадобится 3 разных пороговых значения, по одному для каждого метода, поскольку пространство функций для всех из них разное. Кроме того, ваше значение 'p' в прогнозе не является вероятностью, а является расстоянием от вашего тестового изображения до ближайшего найденного совпадения в базе данных (так что, как бы наоборот), так что это не вообще в диапазоне [0..100].   -  person berak    schedule 13.05.2014
comment
@berak Мы передаем три параметра для предсказания iplimage: int [], double []. Хорошо, мы прошли Iplimage, мы получили расстояние в double [], но что такое int []? что он представляет. Поскольку я не совсем понимаю это, я получаю другое значение, например 1,4,8.   -  person umerk44    schedule 14.05.2014
comment
это метка класса, идентификатор вашего человека. ты написал этот код?   -  person berak    schedule 14.05.2014
comment
нет это не мой код   -  person umerk44    schedule 14.05.2014
comment
@berak Спасибо за ответ. Тогда как мы можем узнать порог ложного распознавания, чтобы отвергнуть все эти ложно распознанные лица?   -  person Y.AL    schedule 19.05.2014
comment
дервиш, вам нужно будет запустить тесты на своих данных. честно говоря, заставить код работать - самая простая часть. Оптимизация результата - вот где начинается настоящая работа.   -  person berak    schedule 19.05.2014
comment
Я согласен с berak, вам нужно достаточное количество разных изображений от одного и того же человека, чтобы модель могла быть обучена с его помощью. В конце концов, прогноз лучше.   -  person Spindizzy    schedule 22.04.2016
comment
У меня такая же проблема. Кто-нибудь решит эту проблему в 2018 году?   -  person Innocent    schedule 08.10.2018


Ответы (1)


Я думаю, вам нужно что-то реализовать, чтобы быть более устойчивым к изменениям освещения. см. Нормализация освещения в OpenCV

Затем, чтобы управлять сходством между изображениями, возможно, вы можете использовать что-то вроде анализа основных компонентов.

person user3529407    schedule 05.11.2014
comment
Почему -1, я дал вам несколько методов повышения скорости распознавания при наличии факторов, которые могут нарушить распознавание. Я использовал их в аналогичном проекте, чтобы они были более надежными, и они отлично работают. - person user3529407; 05.11.2014