Cultivating workforce and community

From IBM Home Page Reader to cognitive technology to help the blind navigate surroundings

2003

IBM Home Page Reader Thai to alleviate disadvantage of people with visual and printed disability



ในปี พ.ศ. 2546 ไอบีเอ็มเปิดตัว IBM Home Page Reader ภาษาไทย หรือ HPR-Thai ซอฟต์แวร์ช่วยอ่านเว็บเพจด้วยเสียงภาษาไทย มุ่งหวังเพื่อเป็นประโยชน์สำหรับกลุ่มผู้พิการทางสายตาและผู้พิการทางสื่อสิ่งพิมพ์ โดย HPR-Thai เกิดจากการผสมผสานระหว่าง 3 เทคโนโลยี คือ
   - Thai Text-to-Speech Technology ที่ช่วยแปลงข้อความจากตัวหนังสือให้มาเป็นเสียงภาษาไทยซึ่งเกิดจากความร่วมมือระหว่างไอบีเอ็มและศูนย์วิจัยการประมวลผลภาษาและวัจนะ จุฬาลงกรณ์มหาวิทยาลัย
   - Web Technology ที่ช่วยจัดการข้อมูลในอินเตอร์เน็ตที่อยู่ในรูปแบบของHTML 
   - Accessibility Technology ที่ได้รับการออกแบบมาโดยเฉพาะสำหรับพฤติกรรมการใช้งานในชีวิตประจำวันของผู้มีปัญหาทางสายตาและการมองเห็นโดยเป็นความร่วมมือระหว่าง IBM Accessibility Center ในประเทศญี่ปุ่นและในประเทศสหรัฐอเมริกา

พร้อมกันนี้ไอบีเอ็มได้มอบ HPR-Thai ให้กับสถาบันการศึกษาและสมาคมผู้มีปัญหาทางสายตา4 แห่งได้แก่
1) สมาคมคนตาบอดแห่งประเทศไทย
2) สถาบันคนตาบอดแห่งชาติ
3) วิทยาลัยราชสุดา มหาวิทยาลัยมหิดล
4) จุฬาลงกรณ์มหาวิทยาลัย

In 2003, IBM launched IBM Home Page Reader Thai or HPR-Thai.  The software for Thai-speaking web browser helped alleviate disadvantage of people with visual and printed disability as well as promote widespread use of technology in learning and enhance quality of life.  The HPR-Thai was donated to various academic institutes and visually impaired foundations and distributed through IBM business partners to retail market.

HPR-Thai integrates 3 technologies, including, Thai Tex-to-Speech Technology (in collaboration with Chulalongkorn University), Web Technology and Accessibility Technology

In this same occasion, IBM also donated HPR-Thai to 4 educational institutions and the blind associations, including
1) Thailand Association of the Blind
2) National Institute for the Blind
3) Ratchasuda College, Mahidol University
4) Chulalongkorn University

2015

Open platform and cognitive technology to help the blind navigate surroundings



ในปี พ.ศ. 2558 นักวิจัยจากไอบีเอ็มและมหาวิทยาลัยคาร์เนกี้ เมลลอน ได้สร้างแอพนำร่องชื่อเนฟค็อก (NavCog) ขึ้นบนแพลตฟอร์มเพื่อรองรับการสร้างแอพสมาร์ทโฟนนำ โดยแอพนี้สามารถดึงข้อมูลจากเซ็นเซอร์ต่างๆ รวมถึงใช้ประโยชน์จากเทคโนโลยีค็อกนิทิฟ เพื่อแจ้งให้ผู้พิการทางสายตาในวิทยาเขตของคาร์เนกี้สามารถรับรู้ถึงสิ่งที่อยู่รอบตัวได้ ผ่านทางเสียงกระซิบที่หูฟังหรือการสั่นที่สมาร์ทโฟน โดยแอพดังกล่าวจะวิเคราะห์สัญญาณจากเซ็นเซอร์ของสมาร์ทโฟนและอุปกรณ์บลูทูธที่ติดตั้งอยู่ตามทางเดิน ช่วยให้ผู้ใช้สามารถเดินทางไปที่ต่างๆ ทั้งภายในและภายนอกอาคารได้โดยไม่ต้องมีคนคอยช่วยเหลือ ปัจจุบันได้เริ่มมีการเปิดให้ดาวน์โหลดแอพเนฟค็อกที่แอพสโตร์ได้โดยไม่เสียค่าใช้จ่ายแล้ว

นอกจากนี้ ยังมีการเปิดกว้างให้นักพัฒนาสามารถเข้าไปใช้ประโยชน์จากโค้ดและเครื่องมือพัฒนาแอพค็อกนิทิฟดังกล่าวได้ ผ่านทาง IBM Cloud ที่ https://hulop.mybluemix.net/ โดยมีเครื่องมือต่างๆ อาทิ เครื่องมือช่วยสร้างแอพสำหรับนำทาง เครื่องมือปรับแก้แผนที่ อัลกอริธึ่มสำหรับการปรับองค์ประกอบต่างๆ ให้ตรงกับตำแหน่งสถานที่นั้นๆ เป็นต้น ซึ่งจะช่วยให้ผู้พิการทางสายตาสามารถรู้ได้แทบจะทันทีว่าตนอยู่ที่ไหน กำลังหันหน้าไปทางไหน พร้อมทราบข้อมูลเกี่ยวกับสิ่งต่างๆ ที่อยู่รอบตัวในขณะนั้น โดยเครื่องมือสร้างแอพนำทางยังสามารถแปลงภาพสิ่งรอบตัวจากสมาร์ทโฟน ให้เป็นโมเดลพื้นที่สามมิติ เพื่อช่วยให้ผู้พิการทางสายตาสามารถเข้าใจลักษณะพื้นที่ที่ตนอยู่และช่วยให้การนำทางเป็นไปอย่างมีประสิทธิภาพยิ่งขึ้น


In 2015, scientists from IBM Research and Carnegie Mellon University (CMU) today announced the first of a kind open platform designed to support the creation of smartphone apps that can enable the blind to better navigate their surroundings.

The IBM and CMU researchers used the platform to create a pilot app, called NavCog, that draws on existing sensors and cognitive technologies to inform blind people on the CMU campus about their surroundings by “whispering” into their ears through earbuds or by creating vibrations on smartphones. The app analyzes signals from Bluetooth beacons located along walkways and from smartphone sensors to help enable users to move without human assistance, whether inside campus buildings or outdoors. Researchers are exploring additional capabilities for future versions of the app to detect who is approaching and what is their mood. NavCog app is now available at no cost on the App Store. 

The first set of cognitive assistance tools for developers is now available via the cloud through IBM Cloud at  https://hulop.mybluemix.net. The open toolkit consists of an app for navigation, a map editing tool and localization algorithms that can help the blind identify in near real time where they are, which direction they are facing and additional surrounding environmental information. The computer vision navigation application tool turns smartphone images of the surrounding environment into a 3-D space model to help improve localization and navigation for the visually impaired.

Contact us

Contact us