논문 및 국내/국제 특허 출원 시기의 중요성에 대한 BRIC 게시물


http://www.ibric.org/myboard/read.php?Board=sori&id=39589


이항 5차방정식의 계수 구성

학술 2015. 4. 10. 14:43 Posted by 양고

은 다음과 같다.

 

     f(x,y) = p00 + p10*x + p01*y + p20*x^2 + p11*x*y + p02*y^2 + p30*x^3 + p21*x^2*y
                    + p12*x*y^2 + p03*y^3 + p40*x^4 + p31*x^3*y + p22*x^2*y^2
                    + p13*x*y^3 + p04*y^4 + p50*x^5 + p41*x^4*y + p32*x^3*y^2
                    + p23*x^2*y^3 + p14*x*y^4 + p05*y^5

 

 

 

AIAI 2014
그리스 Patras 대학 등

개요

 가속도계(accelerometer) 등의 센서는 소형이고 저전력인 장점으로 인해 사람의 동작을 인식하는 데 널리 쓰이고 있다. 본 연구는 가속도계를 이용하여 사람의 동작을 인식하는 문제에 있어서, 여러 가지 전처리(pre-processing)와 분류기(classifier)의 종류에 따른 실험을 수행하고 그 결과를 비교 분석하였다.
우선 가속도계로부터 입력되는 x,y,z 신호에 대해 윈도우(W)를 적용하고 이 윈도우에 대해 아무 처리도 하지 않은 신호와, N 가지의 필터를 적용한 신호, 그리고 기하학적 표현을 거친 신호로 각각 (동시에) 전처리한다.
전처리 과정을 거친 신호들로부터 통계적 특징(features)과 물리적 특징을 추출하고 이로부터 분류기가 해당 입력이 어떤 동작인지를 결정한다(그림 10). 통계적 특징은 다시 시간 영역(time-domain)에서의 평균, 중간값, 분산, RMS 등과 주파수 영역(frequency domain)에서의 스펙트럼 에너지 등으로 나뉘어 총 77개의 특징으로 구성되고, 4가지 전처리와 합해 4x77=308차원의 특징 벡터가 만들어진다.
 분류기는 SVM support vector machine을 사용하였으며 WEKA machine learning toolkit 소프트웨어로 구현되었다. 오른쪽 엉덩이 부분에 가속도계 센서를 장착한 14명이 참가한 실험 결과 분석에서, 예상과 다르게 아무런 전처리를 하지 않은 경우가 인식률이 높은 것으로 나타났다.

AIAI 2014
그리스 국영통신사 OTE 등

개요

 LTE는 가변 LTE bit rate와 SFN, 그리고 캐리어 가변 설정 등을 지원하는 eMBMS로 진화하였다. 복수의 eMBMS 서비스 지역은 CDN 측면에서 효율적인 스펙트럼 활용과 방송/푸시 미디어 전송을 가능하게 한다.

 콘텐트 캐싱은 콘텐트를 엔드유저 쪽에 가깝게 가져옴으로써 서비스 성능과 지연을 향상시키는 기법이다. 캐시에는 hierarchical/distributed caching이 있다.

 LiveCity라는 European Reaserch Project가 본 연구의 타깃이다. (ON/OFF 소스모델)

 본 연구는 ON/OFF 모델 서비스에서 최적의 캐시 사이즈를 결정하는 간단한 알고리듬을 제안한다.

 2005년 3GPP는 UMTS에서의 multimedia broadcast/multicast (MBMS) 서비스를 정의했다. MBMS는 eMBMS로 진화.

 eMBMS는 다음을 지원:

  • 향상된 성능
  • 더 높은 가변 LTE 비트레이트
  • SFN (MBSFN) - MBMS의 cell-edge problem을 극복하여 채널 용량을 3~4배까지도 늘릴 수 있음
  • 가변 캐리어 설정

 Qualcomm과 Ericsson은 MWC 2012에서 eMBMS 솔루션 전시.

 


2011 CAIP

[개요]
목표는 Kinect calibration.
열심히 calibration해서 manufacturer calibration data와 비교, 결과가 비슷함을 보이고 있다.
Manufacturer calibration data를 그냥 쓰면 될 것 같은데... -.-
depth discontinuity 정보를 쓰지 않기 때문에 robust하다고 주장.

[정보]
Kinect는 depth가 아닌 disparity를 제공한다...?!
그 관계는 z = 1/α(d-β) 라는군.

[방법]
1. initial calibration of color camera with Zhang
2. initial calibration of depth camera with user-pointed 4 corners (with Zhang)
3. relative transformation Tc and Td obtained
4. non-linear minimization of depth camera (d-d')
   : 2번에서 rough하게나마 metric calibration이 되었으니 모든 (체커보드) 코너들에 대한 3D좌표가 있을것이다. 
   : 즉 체커보드 코너의 3D 좌표를 depth 좌표계로 바꿀 수 있다.
   : rough한 depth cam의 intrinsic도 있으므로 reprojection이 가능. 즉 d'을 얻을 수 있다.
   : 실제 센서로부터 얻은 disparity d와 비교한다.
5. non-linear minimization over all parameters

Surface Fitting in MATLAB

학술 2012. 1. 26. 15:57 Posted by 양고
MATLAB에서는 curve fitting과 surface fitting 툴박스를 제공한다.
sftool를 입력하여 실행하거나, 그림과 같이 시작 > 툴박스 > curve fitting > surface fitting tool 로부터 열자.


load franke를 입력하면 x,y,z에 예제 데이터가 로드된다.
x,y에 대한 z의 변화를 다항식 등으로 피팅하는 것이 목적이다.

여러 가지 fitting 또는 interpolation 방법을 선택할 수 있다.
우선 linear interpolation:


cubic interpolation:


1차 다항식:


2차 다항식:


5차 다항식:


차수가 증가함에 따라 SSE가 줄어드는 것을 볼 수 있다.

Pinhole movement while zooming

학술 2011. 12. 8. 16:38 Posted by 양고
'줌인아웃 시에 프로젝션 중심은 어떻게 움직이는가'에 대한 고찰.
혹시 양넘들이 보고 뭔가 틀린걸 지적해줄지도 모르므로 영어로 써본다.

How the projection center of a camera moves while zooming, when it is modeled as a pinhole camera?

Here's a common misunderstanding:

If this is the case, the projection center will move forward while zooming. Actually it doesn't, in a real zoom camera.

Here's a simplified zoom lens:


When it is zoomed in or out, the 'incidental' filed of view will change like this:

The projection center will be decided by this incidental FOV as in the picture.
Then the pinhole will move backward while zooming-in, just as the real zoom camera.

PDF Unlock

학술 2011. 10. 31. 15:07 Posted by 양고
참고: http://olpost.com/v/1985464

논문 볼 때 PDF에 형광펜 쳐가면서 보는데,
가끔씩 (보안)이라 표시되면서 주석을 달 수 없는 경우는 상당히 짜증난다.
논문을 훔친 것도 아니고 다 돈 내고 받는 건데...

잡스러운 언락언록 프로그램 받아서 돌려봤지만 효과가 없었다.
이 사이트가 최고:

http://www.pdfunlock.com/

형광펜 마구 칠해야지 잇힝~

On the direct minimization of ray distances

학술 2011. 10. 17. 17:15 Posted by 양고

MVG says (Ch 12.1, p.311):

It is clear, particularly for projective reconstruction, that it is inappropriate to minimize errors in the 3D projective space, P3. For instance, the method that finds the midpoint of the common perpendicular to the two rays in space in not suitable for projective reconstruction, since concepts such as distance and perpendicularity are not valid in the context of projective geometry. In fact, in projective reconstruction, this method will give different results depending on which particular projective reconstruction is considered - the method is not projective-invariant.

On the second thought, I realized that the (minimizing the distance between the backprojected rays) idea might be equivalent to minimizing the distances between the points and corresponding epipolar lines.
Then... why the trivial solution does not occur in the epipolar case?

[OpenCV] BRIEF에는 FLANN을 사용할 수 없다.

학술 2011. 9. 15. 11:33 Posted by 양고
FLANN은 SURF와 같은 4-byte floating point 기반 descriptor에서만 사용할 수 있다.
BRIEF는 (바이트 단위로 재구성된) 바이너리 스트링이기 때문에 FLANN을 사용하는 것은 어려울 듯.
ㅠㅠ

해결 방안은
1. SURF로 해본다. --> 일단은 이쪽으로 MH를 실험.
2. 다른 ANN 라이브러리를 찾는다.


http://opencv-users.1802565.n2.nabble.com/FLANN-help-td6185055.html
FLANN works with 4 bytes descriptors because needs to calculate distances and then uses floating point values.

Try to take a look at original FLANN documentation at FLANN site, but I'm pretty sure about it.

Walter

-----
Walter Lucetti
http://www.robot-home.it
-----
Inviato da Samsung Galaxy Tab
"huck.wach" <[hidden email]> ha scritto:>I can make it work using SURF descriptors rather than BRIEF descriptors.  And the only difference I can tell is that BRIEF uses  1 byte descriptors and SURF uses 4 byte.  It seems like FLANN is expecting the 4 byte ones.  I suppose I can convert the brief ones to 4 byte but that seems not the best option.  Is there a way to ask FLANN to work with the 1 byte descriptors of BRIEF?

>
>--- In [hidden email], "huck.wach" <huck.wach@...> wrote:
>>
>> I'm trying to follow the example in the two samples descriptor_extractor_matcher and matching_to_many_images.  But I keep having runtime errors.  In one attempt I try this...
>>
>> cv::FlannBasedMatcher matcher;
>> matcher.match( desc[0], desc[1], matches );


https://code.ros.org/trac/opencv/ticket/978

Ticket #978 (reopened enhancement)

Opened 6 months ago

Last modified 6 weeks ago

Crash when using BruteForce-Hamming or BruteForce-HammingLUT descriptor matchers

Reported by: tijszwinkels Owned by: mdim
Priority: minor Component: samples
Version: SVN (trunk) Keywords: descriptor matcher compatibility
Cc: yvonnic2m@…

Description

This crash can easily be reproduced with the matching_to_many_images sample program.

Both:

matching_to_many_images SURF SURF BruteForce?-Hamming foo.jpg foo.txt foodir

and

matching_to_many_images SURF SURF BruteForce?-HammingLUT foo.jpg foo.txt foodir

fail with the following error:

OpenCV Error: Assertion failed (DataType?<ValueType?>::type == queryDescriptors.type()) in commonKnnMatchImpl, file /home/tijs/src/OpenCV-svn/opencv/opencv/modules/features2d/include/opencv2/features2d/features2d.hpp, line 2132
terminate called after throwing an instance of 'cv::Exception'

what(): /home/tijs/src/OpenCV-svn/opencv/opencv/modules/features2d/include/opencv2/features2d/features2d.hpp:2132: error: (-215) DataType?<ValueType?>::type == queryDescriptors.type() in function commonKnnMatchImpl

Aborted

OpenCV version: Latest SVN (trunk@4844)
Kernel 2.6.32 x86_64
gcc version 4.4.3 (Ubuntu 4.4.3-4ubuntu5)
Built with: SSE2 SSE3 SSSE3 TBB and CUDA among others.

Change History

Changed 5 months ago by mdim

  • status changed from new to closed
  • resolution set to fixed

This is not a bug. You can not match SURF descriptors by Hamming or HammingLUT distances. These distances are used for matching the bit strings stored as uchar vectors only, but SURF descriptor is a float vector (is not binary descriptor). So, BruteForceMatcher? throws the exception you got.

SURF descriptors can be matched by L2 or L1 distances. Hamming or HammingLUT distances are used to match eg. BRIEF descriptors.

Changed 7 weeks ago by yvo2m

  • status changed from closed to reopened
  • cc yvonnic2m@… added
  • type changed from defect to enhancement
  • component changed from features2d to samples
  • keywords descriptor matcher compatibility added; sample crash removed
  • resolution fixed deleted

Maybe a note should be printed on screen when you launch the executable without any arguments, telling which are the different detectors, descriptors and the matching method working with them.
Something like :

  • Detectors:
    • FAST
    • STAR
    • SIFT
    • SURF
    • ORB
    • MSER
    • GFTT
    • HARRIS
    • Grid{Detector}
    • Pyramid{Detector}
    • Dynamic{Detector}
  • Descriptors:
    • float descriptors:
      • SIFT
      • SURF
    • uchar descriptors:
      • ORB
      • BRIEF
  • Matchers:
    • for float descriptor:
      • FlannBased
      • BruteForce
      • BruteForce-L1
    • for uchar descriptor:
      • BruteForce-Hamming
      • BruteForce-HammingLUT

Changed 6 weeks ago by andrey.kamaev

I think that classification from previous post has to be included into features2d reference manual.

And one addition:
If I not mistaken, FlannBasedMatcher? is also able to match uchar descriptors, when it is created with custom parameters.

Changed 6 weeks ago by yvo2m

Adding classification in manual is not sufficient because OpenCV samples have to be easy to use.

And for your addition:
Yes but I think that uchar descriptor of ORB and BRIEF means bit descriptor and not Bytes (each bit has to be compared separately; XOR and sum bits).

Changed 6 weeks ago by andrey.kamaev

Just checked source code - if flann algorithm is set to FLANN_INDEX_LSH then Hamming distance is used. So it should be applicable for ORB and BRIEF.

Changed 6 weeks ago by yvo2m

So the sample !matching_to_many_images should be modified to accept Hamming distance based FLANN.

thanks for the precision !

Changed 6 weeks ago by yvo2m

Well, in fact FLANN_INDEX_LSH is not available in OpenCV 2.3 as it has been integrated in OpenCV trunk in commit 6034 the 07/14 with the integration on FLANN 1.6