CALENDAR

«   2024/05   »
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31

ARCHIVE

RECENT COMMENT

RECENT TRACKBACK


블로그 이미지
세상의 유익하고, 흥미로운 자료를 함께 나누자.
by 黑風傳設

CATEGORY

IT&언어&사진 (232)
IT (13)
Language (9)
흑풍의음악공간 (82)
사진 (20)
흥미거리 (27)
미리보기 (6)
KOICA봉사활동(2009~2011) (18)
(45)
내생각은... (2)
전통차정보 (6)

RECENT ARTICLE

TAG CLOUD



  1. 2008.06.26
    face remocon?? 얼굴리모컨 원문
  2. 2008.06.26
    얼굴 리모컨??
  3. 2008.06.25
    문신 스타킹!
  4. 2008.06.20
    누굴까?
  5. 2008.06.20
    2008 it월드쇼
  6. 2008.06.19
    머신걸-2008 (예고편)
  7. 2008.06.19
    세계최고의 슈퍼컴퓨터 개발완성!
  8. 2008.06.16
    이런 차가 가능할까? 풍선이라^^
  9. 2008.06.15
    Natalia vodianova
  10. 2008.06.15
    안철수! KAIST의 교수가 되다.

무슨 전자공대 같은데 대단하다.!!

Computer Scientist Turns his Face into a Remote Control

San Diego, CA, June 25, 2008 --   A computer science Ph.D. student can turn his face into a remote control that speeds and slows video playback. The proof-of-concept demonstration is part of a larger project to use automated facial expression recognition to make robots more effective teachers.

Jacob Whitehill, a computer science Ph.D. student from UC San Diego’s Jacobs School of Engineering, is leading this project. It builds on technology for detecting facial expressions being developed at UC San Diego’s Machine Perception Laboratory (MPLab), part of the Institute for Neural Computation, and housed in the UCSD Division of Calit2.

Jacob Whitehill and face expression recogniton software
Jacob Whitehill, a computer science Ph.D. student from UC San Diego’s Jacobs School of Engineering, demonstrates the face recognition software he used to turn his face into a remote control for video playback.

Watch Jacob Whitehill turn his face into a remote control in a three minute video at: http://video-jsoe.ucsd.edu/asx/Whitehill_UC_San_Diego.wmv.asx

View a one minute video Jacob Whitehill created to communicate his
research results: http://www.youtube.com/watch?v=ceP-vcbFxh0

In a recent pilot study, Whitehill and his colleagues demonstrated that information within the facial expressions people make while watching recorded video lectures can be used to predict a person’s preferred viewing speed of the video and how difficult a person perceives the lecture at each moment in time.

This new work is at the intersection of facial expression recognition research and automated tutoring systems.

“If I am a student dealing with a robot teacher and I am completely puzzled and yet the robot keeps presenting new material, that’s not going to be very useful to me. If, instead, the robot stops and says, ‘Oh, maybe you’re confused,’ and I say, ‘Yes, thank you for stopping,’ that’s really good,” said Whitehill.

Whitehill’s work is being presented in June 2008 at two peer-reviewed academic conferences. On June 25, Whitehill presented his findings at the Intelligent Tutoring Systems conference. On June 28, Marian Stewart Bartlett, a co-director of the Machine Perception Laboratory, will present this work at the 2008 IEEE International Workshop on Computer Vision and Pattern Recognition for Human Communicative Behavior Analysis.

Jacob Whitehill and face expression recogniton software
Jacob Whitehill, a computer science Ph.D. student from UC San Diego’s Jacobs School of Engineering can turn his face into a remote control thanks to software created at UCSD's Machine Perception Laboratory.

In the pilot study, the facial movements people made when they perceived the lecture to be difficult varied widely from person to person. Most of the eight test subjects, however, blinked less frequently during difficult parts of the lecture than during easier portions of the lecture, which is supported by findings in psychology.

One of the next steps for this project is to determine what facial movements one person naturally makes when he or she is exposed to difficult or easy lecture material. From here, Whitehill could then train a user specific model that predicts when a lecture should be sped up or slowed down based on the spontaneous facial expressions a person makes.

To collect examples of the kinds of facial expressions involved in teaching and learning, Whitehill taught a group of people in his lab about German grammar and recorded the sessions using video conferencing software.

“I wanted to see the kinds of cues that students and teachers use to try to modulate or enrich the instruction. To me, it’s about understanding and optimizing interactions between students and teachers,” said Whitehill.

“I can see you nodding right now, for instance,” said Whitehill during the interview. “That suggests to me that you’re understanding, that I can keep going with what I am saying. If you give me a puzzled look, I might back up for a second.”

The work is sponsored in part by UCSD’s Temporal Dynamics of Learning Center (TDLC), an NSF-sponsored Science of Learning Center. “Jake’s research is exemplary of the kind of education-oriented research that we hope will become an increasing part of the Center’s research output,” commented Gary Cottrell, Director of the TDLC and a computer science professor at UC San Diego.

Referenced Conference presentations June 2008:

Measuring the Perceived Difficulty of a Lecture Using Automatic Facial Expression Recognition (short paper), accepted to Intelligent Tutoring Systems 2008. Author list: Jacob Whitehill, Marian Bartlett, and Javier Movellan from the Machine Perception Laboratory, University of California, San Diego.

Automatic Facial Expression Recognition for Intelligent Tutoring Systems, accepted to CVPR 2008 Workshop on Human Communicative Behavior Analysis. Author list: Jacob Whitehill, Marian Bartlett, and Javier Movellan from the Machine Perception Laboratory, University of California, San Diego.

Contact info:
Jacob Whitehill
UC San Diego computer science Ph.D. candidate
jake AT mplab DOT ucsd DOT edu

Daniel Kane
Public Info Officer, UC San Diego Jacobs School of Engineering
dbkane AT ucsd DOT edu
858-534-3262

##

The goal of UC San Diego’s Machine Perception Laboratory (MPLab) is to gain insights into how the brain works by developing systems that perceive and interact with humans in real time using natural communication channels. To this effect, MPLab investigators are developing perceptual primitives to detect and track human faces and to recognize facial expressions. They are also developing algorithms for robots that develop and learn to interact with people on their own. Applications include personal robots, perceptive tutoring systems, and system for clinical assessment, monitoring, and intervention.

And
얼굴의 표정만으로 조종할수 있다는데 ...
주름살 생기는건 아닌지...

"얼굴 리모컨 개발 성공, 얼굴 표정으로 비디오 플레이어 조종
팝뉴스  기사전송 2008-06-26 10:14 | 최종수정 2008-06-26 10:18 

이제 웃고 찡그리는 것만으로도 가전제품을 조종할 수 있는 날이 멀지 않은 듯 하다.

「라이브 사이언스」 등 과학 관련 미디어들은 25일, 미국 캘리포니아 대학 샌디에고(UCSD) 공과대학의 박사과정 연구팀이 사람의 얼굴 표정을 인식하여 반응하는 비디오 플레이어를 개발하는데 성공하였다고 보도하였다.

주로 얼굴의 미소를 포착하도록 고안된 이 프로그램을 사용하면, 대상자의 반응에 따라 비디오 플레이어의 속도를 자유자재로 조종할 수 있다고. 이번 연구는 로봇을 이용한 동영상 강의 등을 좀 더 효과적으로 활용하기 위해 진행된 것이다.

이 프로그램은 수강자가 강의 내용에 만족하고 있는지 혼란을 느끼고 있는지 판단하기 위해 얼굴 표정을 분석한다. 미소나 고개를 끄덕이는 반응을 보이면 동영상은 제 속도로 진행되거나 속도를 조금 높인다. 반면 눈썹 모양이 일그러지면 일시 정지되거나 앞의 내용이 다시 반복된다.

연구팀을 이끄는 제이콥 화이트힐(컴퓨터 공학 박사)은 최근 8명을 대상으로 실시한 모의 시험에서 성공적인 결과를 얻어냈다고 발표하였다. 그러나 지루함이나 만족감을 느낄 때 나타내는 개인의 표정이 워낙 다양하기 때문에 표정 분석이 쉽지만은 않다. 지루함을 느낄 때 턱모양이 느슨해지는 사람이 있는가하면 극도로 몰입했을 때 그런 표정을 짓는 사람이 있기 때문이다.

이를 보완하기 위해 연구팀은 표정 분석을 한층 심화함과 동시에 개인별 맞춤 인식 장치를 개발하는 데 주력할 예정이다. UCSD 연구팀은 이번 연구를 발판으로 인간과 실시간으로 소통하여 반응하는 로봇 개발을 최종 목표로 삼고 있다고 밝혔다.

한미영 기자 "


And
이쁜건가??
마지막이 제일 그럴싸 한거 같다.
And
사용자 삽입 이미지
누구일까요?
And
사용자 삽입 이미지
- HP부스의 벽모습이다.
  입체적인 느낌이 좋다.

사용자 삽입 이미지
- LG의 아이스크림폰 이라는데.
  커버에 불빛이 들어오는게 좋았다.

사용자 삽입 이미지
- 삼성의 휴대용 프로젝터 이다.
   써보고 싶다.^^

사용자 삽입 이미지
-HP의 컬러레이져젯이다.
  개별형 토너라서 더욱 저렴할거 같다.
  출력물이 엄청 좋았다.

사용자 삽입 이미지
사용자 삽입 이미지
-삼성이 만든 메탄올 전지 시제품이다.
  지금 충전해서 쓰는 전지와 같이 가능하게 개발중이란다.
  2년후에 첫 제품이 나온다는데 써보고 싶다.^^

사용자 삽입 이미지
사용자 삽입 이미지
- 이거 역시 삼성의 작품이다.
  플라스틱을 대체하는 옥수수전분.
  폐기할때도 잘 분해가 된단다.
  근데, 곡물가는 어찌할껴?

사용자 삽입 이미지
- 이거역시 삼성꺼.
  콘센트가 여러군데 있는데 거기에 컴퓨터, MP3 player, usb기기 등등을 연결한단다.
  바로바로 연결된 TV로 내용이 전달된다.
  요거 하나 설치하고 싶다.^^

어느 전시회나 그렇지만 이번전시회 역시 대기업들이 많이 차지했다.
특히 삼성, LG는 최고의 규모를 유감없이 보여주었다.
시간이 촉박했지만 유익한 관람이 된것 같다.
다음 전시회를 기대하며 이만...
And


손대신 머신건을 들고 야쿠자를 치다!
야시로 미나세라는 어여쁜 주인공!^^
And
연산속도가 1초에 1000조회 란다.
와~~ 상상이 안가는데..
여러분들은 어떠신지.
다음은 기사 내용입니다.

"
세계 최고속 컴퓨터는 'IBM 로드러너'   
IBM, 세계 최고 속도의 500대 슈퍼컴퓨터 1~3위 휩쓸어
2008년 06월 19일 (목) 18:07:08 InformationWeek USAwebmaster@itdaily.kr
IBM의 로드러너(Roadrunner)가 세계에서 가장 빠른 500대 컴퓨터에서 1위에 올랐다. 본지와 독점 기사제휴를 맺고 있는 미 인포메이션위크는 미국의 로스 앨라모스 국립 연구소(Los Alamos National Laboratory)에 설치된 로드러너가 1초당 1천조회의 연산속도를 제공해 세계에서 가장 빠른 컴퓨터로 자리매김하게 되었다고 밝혔다. 이 슈퍼컴퓨터는 에너지 효율성 면에서도 단연 최고인 것으로 나타났다.

세계에서 가장 빠른 컴퓨터 10
순위 컴퓨터
1 IBM 로드러너(Roadrunner)
2 IBM 블루진(Blue Gene)/L 시스템
3 IBM
팀블루진(Team Blue Gene)/P 시스템
4 썬 블레이드 x6420 레인저(Ranger)
5

크레이(Cray) XT4 Jaguar
(205테라플롭스)

6 IBM 블루진/P 시스템
7 SGI Altix ICE 8200
8 HP 클러스터 플랫폼(Cluster Platform) 3000 BL460c
9 IBM 블루진/P
10 SGI Altix ICE 8200EX
또한 국립핵보장기구(National Nuclear Security Administration)의 로렌스 리버모어 국립연구소에 설치된 IBM의 블루진(Blue Gene)/L 시스템이 2위에 올랐으며, 팀블루진(Team Blue Gene)/P 시스템이 3위에 올라, 1~3위를 모두 IBM이 차지하는 영예를 차지했다. 이번 순위는 독일 드레스덴(Dresden)에서 개최된 국제 슈퍼컴퓨팅 컨퍼런스에서 발표되었다.

1억 달러의 제작비가 투입된 로드러너는 국립핵보장기구가 운영하는 로스 앨모스 연구소 과학자들과 IBM이 공동으로 개발한 것으로, 12,240개의 PowerXCell 8i을 사용, 1.026페타플롭스(petaflops)의 속도를 구현했다. 이 슈퍼컴퓨터는 AMD의 6,562개의 옵테론 듀얼-코어 프로세서를 탑재했다.

IBM QS22 블레이드 서버를 토대로 하고 있는 로드러너는 지난번까지 1위 자리에 있던 블루진/L 시스템보다 성능이 두 배나 강력하다. 블루진/L 시스템의 경우 478테라플롭스(초당 478조회 연산) 클럭 속도를 지녔으며 3위에 오른 팀블루진의 연산 속도는 450테라플롭스이다.

4위에 오른 시스템은 썬 마이크로시스템즈의 썬 블레이드 x6420 레인저(Ranger)로, 연산속도가 326테라플롭스이다. 5위는 업그레이드된 크레이(Cray) XT4 Jaguar(205테라플롭스)였다. 썬 시스템은 텍사스 대학(University of Texas)의 TACC(Texas Advanced Computing Center)에 설치되어 있으며 크레이 시스템은 오크리지 국립연구소(Oak Ridge National Laboratory)에 설치되어 있다.

10대 시스템의 나머지 5개 시스템은 독일의 Forschungszentrum Juelich에 도입된 IBM 블루진/P 시스템을 비롯해, 뉴멕시코 컴퓨팅 애플리케이션 센터에 설치된 SGI Altix ICE 8200, 인도의 Computational Research Laboratories에 설치된 HP 클러스터 플랫폼(Cluster Platform) 3000 BL460c, 프랑스의 IDRIS에 도입된 IBM 블루진/P, 프랑스의 Total Exploration Production에 있는 SGI Altix ICE 8200EX으로, 각각 6~10위를 차지했다.

500대 시스템에 IBM은 무려 210개 제품을 올려 슈퍼컴퓨터 벤더로서의 위상을 확고히 하고 있는 것으로 나타났다. 8위에 제품을 올린 HP는 183개가 선정되어 IBM에 이은 전체 2위 벤더로 기록되었다.

세계 최고 속도의 500대 컴퓨터에서 인텔 프로세서를 탑재한 비율은 75%에 달한 것으로 나타났다. "

And
공기를 이용한 차라는데.
전체가 두리뭉실. 둥둥~~~

자세한 내용은 다음과 같다.

서울경제

"풍선처럼 공기로 부풀려 타는 자동차

기사입력 2008-05-15 09:21 기사원문보기
And


82년생인데 벌써 아들이... 대단해요~
And

And


맞춤검색