「2018年度「ゼミナールA・B」」カテゴリーアーカイブ

2018年度「ゼミナールA・B」の投稿カテゴリー

A03 Body Extension Content using Virtual Shadow and Bio-metric Information

Member

Project Manager: Natsumi Kobayashi
Programmer:  Natsumi Kobayashi, Yuya Kuwana, Kisho Okuzawa
Designer: Toko Harayama, Riku Miyamoto
Document: Misaki Masuda

 

Content & Background

This project makes available “Body Extension” experience by using shadow for everyone who is healthy or disabled for experience.
Using Kinect, recognize people and generate shadows ; arduino captures some myoelectric potential and some pulses, to expand the body by Unity. Thereby, people with physical disabilities in the  body and healthy people alike can experience “Body Extension” by shadow.

 

Purpose

Making experience  situations available by “Body Extension” by using shadow this is not influenced by individual physique and physical ability.

 

Goal

◾Making contents which people can enjoy fairness and isn’t influenced by individual physique and physical ability.
◾Have everyone experience “Body Extension” by shadow.

 

Development Environment

Game Engine: Unity
Language: C#, Ruby
Framework: Ruby on rails
Database: postgreSQL
Server: AWS, heroku
Virtual Environment: docker
Device: kinect,arduino, web camera, googleHome
Tool: github

A05 Project for Developing Non-verbal Communication Availability using Body Functions and Gestures

Overview

When human beings communicate, the total message impression is 100%, where the percentage of the language content is 7%, the proportion of voice and sound quality is 38%, the ratio of facial expressions and gestures is the remaining 55%, according to Albert Melian. Based on this law, this project aims at a smooth meeting by visualizing not only conversations but also non-verbal communications in web conferences.


Background

When people communicate, facial expressions, glances, and gestures are more important than words. Albert Melian (1968) derived the law that the percentage of language content is 7% when the impression of the entire message is 100%, the ratio of voice and sound quality is 38%, and the ratio of expression and gesture is 55%. It is considered that non-verbal communication is more important than language communication.


Purpose

The purpose of this project is to improve non-verbal communication skills by reading voice, gaze, facial expressions,  and gestures.


Project Goal

The aim of a smooth meeting is to deepen the content understanding by adding the method of non-verbal communications assuming the use of VR at the conference.


System Configuration


Completed projection drawing


Development Language

Hardware

  • FOVE
  • Kinect v1
  • Web Camera
  • Microphone

Software

  • Unreal Engine 4
  • Blender

Development language

  • BluePrint
  • C++
  • Python

Member

  • Ryo Beppu   PM, Main Programmer
  • Yuki Suzuki   Programmer
  • Mao Saitou   Programmer
  • Yusuke Takeda    Programmer
  • Yuki Fukui      Programmer
  • Yukiko Cordova   Main Designer,  Modeler

A10 Develop bird damage countermeasure support system by drone of local government

Overview

Bird damage on farmland nationwide is serious and the goal is to reduce bird damage of crops by realizing IT more efficiently and more efficiently than traditional bird elimination methods. In addition, we will carry out laps by drone as measures to support countermeasures against bird damage on agricultural land, but do route output, etc. according to agricultural land in meeting the meeting, and take measures against bird damage by eliminating manipulation by farmers etc. as much as possible .

Background

Damage to agricultural crops by birds is becoming increasingly serious and feeding to birds has become commonplace and there are many cases where birds are attracted to residential areas. Also, at that time, it becomes easier to spread to farmers by allowing WEB applications to assist input of necessary items to the required dossier.

Purpose

In order to drive out crows, bulbul and the like, calculate the route that makes drone’s automatic flying, create a system of automatic flight.

Project Goal

Create a drone flight route for the birds to drive away birds by drone and make sure that the route fly accurately.

System Configuration

ae46b1f460ee46f789c27b264a6cb421-1

Member

 

Name position
Yuki Hiramatsu Project Manager & Infrastructure & security Engineer
Ryota Yatae Vice Manager & Designer
Ippei Tsukada Programmer & General affairs
Kazuki Hashimoto Programmer
Syouta Hurukawa Programmer
Yuki Yamao Programmer

 

Development Language

HTML5
CSS
PHP
SQL
Javascript

Completed projection drawing

ae46b1f460ee46f789c27b264a6cb421-1

Program Diagram

seminara-b

NetWork Image

ae46b1f460ee46f789c27b264a6cb421-1

A01 小学校教諭に向けた音楽を用いたプログラミング教育支援システム開発プロジェクト

挿絵

 

KinectV2(使用予定)を利用して子どもの色を読み取り、それに合った「音階」を教員が操作するPCに取り込ませ、出来上がった音楽を出力させる。また、それに加えて児童のポーズ・動きを読み取り「繰り返し処理」等の応用的なシステムを実装する。これらの要素を活用し、音楽のルールに反さない範囲で低学年では課題曲を再現させ、学年が上がるにつれ段階的に自由作曲の要素を取り入れていく。以上のような作曲を通して試行錯誤を繰り返し「プログラミング的思考」を育ませる教育支援システムの開発。

 

情報化の進展により、情報や情報技術を主体的に活用していく力や、情報技術を手段として活用していく力が重要視されている。そのため「プログラミング的思考」を育んでいくことが必要であり、小・中・高等学校を通して子どもたちの発達の段階に応じて位置付けていくことが求められている。

 

本システムは、発達段階にわけ小学校低学年・中学年・高学年にわたって、プログラミング教育を行えるシステムの開発、教員へのサポートを主として開発した。

システム概要図

音楽再生Web アプリのイメージ図

ポーズ登録Webアプリのイメージ図

 

ポーズ判定の様子

使用機器

  • Kinect for Windows v2

使用ソフトウェア

システム開発

    • Unity 2018.2.16f1
    • Visual Stadio 2017
      • Visual C#2017
    • atom
      • HTML
      • javascript

画像作成・デザイン

    • Adobe Photoshop
    • Adobe Illustrator

A02 小学生のプログラミング的思考をはぐくむ教育サポートプロジェクト

概要:

指定された目的地までたどり着くように英語のブロックを組み合わせて道案内を行う道案内ゲーム。
2020年に小学校現場でプログラミング教育と英語教育が必修化される。そのためそれらの現場の教職員が対応できる教材を作成。
これらを用いて子供たちにプログラミング的志向を育ませ、自ら課題を解決する力を身につけさせることを目的としている。

 

 

A03 仮想影と生体情報を用いた身体拡張コンテンツ開発プロジェクト

Body Extension Content using Virtual Shadow and Bio-metric Information

メンバー:

概要:

このプロジェクトは、影を利用することによって、健常者と身体障がい者が、体格差や身体の障害に左右されず、同じ身体拡張の体験を提供するものである。
Kinectで人を認識して影を生成し、arduinoで取得した筋電位、脈拍を、Unity上で使用することによって、身体を拡張させ、身体に障がいがある人や、ない人でも、影を利用した身体拡張を体験する事ができる。
※身体障がい者とは身体に障がいのある者のことを指す。
 This project is making available “Body Extension” experience by using shadow for everyone who is healthy or disabled can experience.
Using Kinect, recognize people and generate shadows, arduino take some myoelectric potential and some pulse, to expand the body by Unity. Thereby people with physical disabilities in the  body not only that but also healthy people can experience “Body Extension” by shadow.

 

目的:

影と身体拡張を取り入れることによって、影の身体との同調を利用して、個々の体格や身体能力に左右されず、人々が同じ立場で楽しく、影を利用した身体拡張の体験を提供する。

Making available people experience  enjoy the same situation “Body Extension” by using shadow isn’t influenced by individual physique and physical ability.

 

目標:

  • 個人の体格や身体能力に固執せず、人々が公平に楽しめるコンテンツの制作。
  • あらゆる人に、影を利用した身体拡張を体験してもらう。
  • Making contents which people can enjoy fairness and isn’t influenced by individual physique and physical ability.
  • Have everyone experience “Body Extension” by shadow.

 

システム概要図:

現在準備中

 

開発環境:

ゲームエンジン:Unity
言語:C#,Ruby
フレームワーク:Ruby on rails
データベース:postgreSQL
サーバ:AWS,heroku
仮想環境:docker
機器:kinect,arduino,webカメラ,googleHome
ツール:github

A04 食材を管理するための 音声認識を利用した レシピ紹介Webアプリケーション開発プロジェクト

概要

食材の廃棄を減らすために消費期限、賞味期限を管理するWebアプリケーションである。音声認識によって食材を登録し食材の管理を行う。また、登録され期限が近くなった食材からおすすめのレシピを提供し、冷蔵庫の食材を有効活用する助けとなる。結果として、ユーザが消費期限の迫った食材を積極的に消費することで食品ロスの原因となる家庭から発生する食品廃棄量の削減を目指す。

背景

消費者庁をはじめ関係5省庁が連携して事業者と家庭、双方における食品ロスの削減を目指し、国民運動「NO-FOODLOSS」プロジェクトを展開している。国の取組のひとつとして食品ロスを減らすための工夫を紹介している。
日本国内における年間の食品廃棄量は、食料消費全体の3割にあたる約2,800万トン。このうち、売れ残りや期限を超えた食品、食べ残しなど、本来食べられたはずの、いわゆる「食品ロス」は約632万トンとされている。これは、日本人1人当たりに換算すると、”お茶碗約1杯分(約136g)の食べ物”が毎日捨てられている計算となる。平成27年の調査では食品廃棄量は2,842万トン、食品ロスは646万トンと推計されている。

目的

食品ロスの原因となる家庭から発生する食品廃棄量の削減。
家庭からの食品ロスには過剰除去、食べ残し、直接廃棄の3種類があるが今回は直接廃棄に重点を置く。
食品の下準備方法を提示し過剰除去による廃棄の削減も考慮する。

目標

・冷蔵庫の食材を管理するWebアプリケーション開発
・音声対話による料理レシピの紹介
・登録されている食材を積極的に利用するレシピを提示する

メンバ

・宮内明乃
・大津静香
・埴田紫穂
・八木友理子
・山口麻衣
・柚原涼香

サーバの構成図

A05 身体機能とジェスチャーと用いた非言語コミュニケーション能力向上プロジェクト

概要:

人間はコミュニケーションを行う時、メッセージ全体の印象を100%とした場合に言語内容の占める割合は7%、音声と音質の占める割合は38%、表情としぐさの占める割合は55%という法則をアルバート・メラビアンは導き出しました。本プロジェクトはこの法則を基にWeb会議で会話のみだけだはなく非言語コミュニケーションを視覚化し、円滑な会議を目標としました。


背景:

人間はコミュニケーションを行う時、言葉よりも顔の表情・視線・身振りなどのほうが、より重要な役割を荷っていることがある。アルバート・メラビアン(1968) は、メッセージ全体の印象を100%とした場合に言語内容の占める割合は7%、音声と音質の占める割合は38%、表情としぐさの占める割合は55%という法則を導き出した。これにより言語コミュニケーションよりも非言語コミュニケーションの方が重要性が高いことが考えられる。


目的:

本プロジェクトでは音声と視線・表情・ジェスチャーを読み取り、非言語コミュニケーション能力向上を目的とする。


目標:

VR会議での使用を想定し、非言語コミュニケーションの伝達方法を追加することで内容理解力を深め会議の円滑な進行を目標とする。


システム構成図:


 

完成予想図:


開発環境:

ハードウェア

  • FOVE
  • Kinect v1
  • Web Camera
  • Microphone

ソフトウェア

  • Unreal Engine 4
  • Blender

開発言語

  • BluePrint
  • C++
  • Python

メンバー:

  • 別府瞭     プロジェクトマネージャ、メインプログラマ
  • 鈴木結貴    プログラマ
  • 齊藤真生    プログラマ
  • 竹田悠介    プログラマ
  • 福井佑希    プログラマ
  • コルドバユキコ メインデザイナ、モデラ

A06 天体を知るための宇宙儀 開発プロジェクト

概要:

UnrealEngine4を用いて、自由に移動できる宇宙空間に近いものを作成する。
VRを使用することによって多方向から見ることのできる、恒星や星座など横から見るとどのように並んでいるかなどを見ることで、今までになかったプラネタリウムの側面からの情報や、恒星の距離などを把握することが可能な宇宙空間内に入れて自由に観光出来るような物を作る。

目的・背景:

宇宙を可視化するとき、星座早見盤やプラネタリウムなどの2Dの表現は、地球から見た相対的な星の位置を知る上では有効であるが、星の距離感覚などといった立体的な情報を理解することができない。現在、主に使用される天体に関する資料は、星座早見盤やプラネタリウムなどの平面の資料を使用されていることが多いが、3D空間に恒星や惑星、衛星を再現しているものは少なく、宇宙という空間を立体的に知ることが難しい。そこで本研究では、VRやホログラムなどを使用し、宇宙を3Dで表示することによって、より立体的に宇宙を理解してもらいたいと考え、3Dの宇宙着を開発することとした。

システム構成図:

スクリーンショット:

 

A07 教育支援アプリケーション開発プロジェクト

 


【概要】

クライアント:私立幼稚園

ユーザー:幼稚園の教員、園児の保護者

顔認証機能を用いた写真の振り分けアプリ。

幼稚園で撮影された写真が自動で園児別に振り分けられ、各保護者のホーム画面に表示されることにより、自分の子どもを探す手間を削減することができる。

ホーム画面では「月」「火」「水」「木」「金」「イベント」の6項目があり、運動会などのイベント時だけでなく、普段の園内での生活の写真まで見ることができる。(教員が撮影したものに限り自由に保存が可能)

アプリケーションを通して園内の様子を保護者に届けることができるため、教員の労働的負担の軽減もできる。

 


【プロジェクトの背景】

幼稚園での子どもの様子を知りたいと思っている保護者は多い。

幼稚園の教員と保護者の間でのコミュニケーションツールとして連絡帳や園だよりはあるが、園内での生活を文章だけでなく写真で見ることができると良いのではないかと考えた。

そのため、写真の管理をメインとしたアプリケーションを開発する。

 


【目的】

保護者に子どもの幼稚園での様子をより簡単に伝えられるようにする。

保護者へ幼稚園での様子を報告する際の教員の労働負担を軽減する。

 


【目標】

幼稚園で撮影した写真を掲載するだけでなく、顔認証システムを加えることで園児別に自動で写真を振り分け、各保護者のホーム画面に表示されるようにする。

 


【メンバー】

前山 大地   木村 隆斗

高野 政大   鈴木 優

長山 友香   佐々木 華

 


【開発環境】

・HTML

・JavaScript

・CSS

・Microsoft custom vision