프로젝트 | |||
과제 제목 | 키오스크 음성 보조 챗봇 | ||
팀 | 팀4 | 구성원 | 김근호, 김동은, 김두현, 김민지, 오현영, 전지성 |
1. 과제 선정과 배경 | |||
디지털 전환이 가속화됨에 따라 키오스크는 일상적인 서비스로 자리 잡았으나, 작은 글씨, 복잡한 사용자 인터페이스, 영양 정보 확인의 어려움 등으로 인해 고령층을 포함한 디지털 취약계층은 여전히 사용에 큰 장벽을 느끼고 있습니다. 기존의 단순 화면 확대 기능만으로는 이러한 문제를 근본적으로 해결하기 어렵습니다. 따라서 본 프로젝트는 음성 안내, 음성 명령 및 특정 식단 필터링, 주문 내용 확인 등 실질적인 기능을 구현하여 현장에서 발생하는 주문 오류를 최소화하고 사용성을 극대화하고자 합니다. 컴퓨터 비전 기술로 사용자의 연령대를 추정하고, 이를 바탕으로 접근성 향상 기능을 먼저 제안하는 선제적 지원 방식을 도입하여 차별점을 두었습니다. | |||
2. 프로젝트 목표 | |||
1. 선제적 맞춤형 접근성 제공컴퓨터 비전 기술을 통해 디지털 취약계층 사용자를 자동으로 인식하고, 이들에게 최적화된 '어르신 맞춤 모드'를 선제적으로 제공하는 것을 목표로 합니다. 해당 모드에서는 확대된 글자와 이미지, 음성 안내(TTS), 직관적인 음성 명령(STT) 등 핵심 접근성 기능을 통합적으로 제공하여 키오스크 사용 장벽을 원천적으로 낮춥니다. 2. 음성 중심의 직관적 과업 처리'어르신 맞춤 모드' 내에서 메뉴 검색부터 필터링, 주문, 결제에 이르는 전 과정을 음성 명령만으로 완수할 수 있는 사용자 경험을 구현합니다. 복잡한 터치 인터페이스를 음성으로 대체함으로써 오주문을 최소화하고, 주문 완료율을 높여 사용자의 만족도와 자신감을 증대시킵니다. 3. 신속한 프로토타입 개발 및 높은 확장성 확보특정 하드웨어에 종속되지 않는 표준 웹 기술과 공개 API를 활용하여, 단기간에 iPad 등 상용 태블릿에서 즉시 시연 가능한 MVP(최소기능제품)를 개발합니다. 이는 향후 다양한 키오스크 환경에 최소한의 비용으로 빠르고 유연하게 확장할 수 있는 기술적 기반을 마련하는 것을 목표로 합니다. | |||
3. 과제 해결방안 | |||
(1) 시스템 아키텍처 및 사용자 흐름본 시스템의 해결 방안은 '선제적 사용자 인식 및 모드 분기' 에서 시작됩니다. 모든 기능은 사용자의 초기 카메라 사용 동의를 전제로 합니다.
(2) 일반 모드: 표준 터치 인터페이스65세 미만 사용자에게는 기존과 동일한 표준 터치 인터페이스를 제공하며, 메뉴별 알레르기·비건 정보 등을 아이콘(뱃지)으로 표시해 정보 접근성을 강화했습니다. (3) 어르신 맞춤 모드: 음성 기반 인터페이스65세 이상 사용자를 위한 음성 중심의 주문 모드입니다. 화면의 '음성으로 주문하기' 버튼을 누르면 음성 대화가 시작되며, 아래와 같은 경험을 제공합니다.
(4) 핵심 기술 스택 및 데이터 구조
주요 기술 스택
| |||
4. 과제를 위한 프로세스(15분) | |||
핵심 개발 파이프라인[1단계: 핵심 기능 모듈화] → [2단계: Streamlit 웹 및 기능 구현] → [3단계: 3-웹 시스템 연결 및 통합 테스트] 단계별 상세 내용[1단계] 핵심 기능 모듈화 웹 인터페이스를 구축하기에 앞서, 프로젝트의 핵심이 되는 기능들을 각각 독립적으로 실행 가능한 Python 모듈로 우선 개발했습니다.
[2단계] Streamlit 웹 구현 및 기능 통합 독립적으로 개발된 기능 모듈들을 바탕으로, 사용자 시나리오에 맞는 3개의 Streamlit 웹을 각각 구현하며 기능을 통합했습니다.
[3단계] 3-웹 시스템 연결 및 통합 테스트 개별적으로 구현된 3개의 웹을 하나의 전체 시스템으로 연결하고 최종 테스트를 진행했습니다.
| |||
5. 기대효과 | |||
1. 사용자 측면: 디지털 접근성 및 자신감 향상
2. 비즈니스 측면: 운영 효율 증대 및 고객 만족도 향상
3. 기술 및 적용성 측면: 높은 확장성과 비용 효율성
4. 사회적 측면: 디지털 포용 사회 기여
| |||
6. 해당 과제 수행을 위한 진행 계획 | |||
1일차 (목): 핵심 기능 모듈 구현 Vision(Face++), 음성 입출력(Google Cloud STT/TTS), 자연어 이해(LLM) 등 프로젝트의 핵심 AI 기능들을 각각 독립적으로 실행 가능한 Python 모듈로 개발 완료. 2일차 (금): Streamlit 웹 구현 개발된 AI 모듈을 통합하여 3개의 Streamlit 웹(초기 인식, 일반 모드, 어르신 모드)의 UI/UX 및 개별 기능을 구현. 3일차 (월): 시스템 연결 '초기 인식 웹'의 분석 결과에 따라 '일반 모드' 또는 '어르신 모드' 웹으로 자동 리디렉션하는 로직을 구현하여 3개의 웹을 하나의 시스템으로 통합. 4일차 (화): 안정화 및 발표 준비 전체 시나리오에 대한 End-to-End 테스트를 진행하여 버그를 수정하고, 데모 시연을 위한 시스템 안정성을 확보한 후 최종 발표 자료를 제작. 역할 분담 (1) 서비스 아키텍처 및 일정 관리, 팀 조율 : 김두현, 김근호 (2) Streamlit 연계 : 김민지, 오현영 (3) Face++ 안면 인식 및 API 연동 : 오현영, 전지성 (4) AI 챗봇(TTS, STT, ChatGPT API 활용, 대화 로직 설계) : 오현영, 김동은, 전지성 (5) 비전 Streamlit : 김민지 (6) 일반 모드 Streamlit : 김근호 (7) 어르신 모드 Streamlit : 김동은 | |||
7. 예시 결과물 | |||
1. 핵심 결과물
2. 데이터 및 산출물
| |||