先日お伝えしたもの。ユーザーが、どこを明るくしたいか決められるのね。これはちょっと新しいと思う。Lytroがピントを後で、これは露出を後で。
MWCのデモでは、保存された写真をタップすると、その部分の露出が自動補正され、HDR画像が出力された。つまりユーザーは撮影→保存→表示という3ステップを踏むことになる。出力した画像を別途保存/共有するなど、その後の使い方は端末メーカーに委ねられる。
先日お伝えしたもの。ユーザーが、どこを明るくしたいか決められるのね。これはちょっと新しいと思う。Lytroがピントを後で、これは露出を後で。
MWCのデモでは、保存された写真をタップすると、その部分の露出が自動補正され、HDR画像が出力された。つまりユーザーは撮影→保存→表示という3ステップを踏むことになる。出力した画像を別途保存/共有するなど、その後の使い方は端末メーカーに委ねられる。
電子情報通信学会誌の今月号(Vol95,No.3,平成24年3月)は、東日本大震災の特集だった。興味深い話がいくつかあったので紹介する。
*ところどころ、上記の文献からの抜粋も含みます。
2008年に超高速インターネット衛星 WINDS の名前が「きずな」なんだそうで。下り最大155Mbps(下り)の通信可能。筑波宇宙センターと接続され、そこからインターネットに繋がる。震災当時は岩手県庁本部などに回線提供した。HDTV品質のテレビ会議システムが可能。
地震発生から1時間以内に毎分1,200件のツイートが投稿、24時間で「地震」を含むツイートが24万6,075件。サーバーダウンはなかった。
トラウマ的なできごとには「書く」ということで健康が増進する。筆記療法とも言うそうで、つぶやきはそれにあたるのではないか。
特定の検索キーワードを含むツイートを30秒おきに検索・収集するソフトで、TTTというのがある。不安を表すツイートが多い、911の場合は、怒りに関するものが多かった。
下記のように、通信不能なケータイをどうやって活用するか。
ルーチングなどの仕組みの観点ではなく、基盤設備(ハード)に目を向けたはなし。伸縮性のある管などを使用する。アンテナを小さくする、など。
災害直後3時間の情報通信コンテンツは
に分けられる。これに足しては、1はSNS、2はSMS、3はHTTP、4はワンセグなど、同報型のパケット通信で実現された。結局のところ、放送網、キャリア、インターネットインフラ全てに対して対策が必要だ。
惑星間インターネットの応用。接続性を前提にせず、接続性があれば通信を完成させる「日和見形ネットワーク」=ノード間の接続に遅延や分断が頻発する環境を想定しておく、という前提のネットワーク。
−−−−−−
とまぁ、問題は山積だが、あの日から1年、我々のような技術屋でもできることは何か、改めて考えたい。
ついに出荷を開始したようです。
ここに、Lytroの詳細が明らかになっています。気になった部分を箇条書き。
撮影モード。これくらいしか撮影モードがないみたい。単純。
Everyday Modeは通常撮影用で、3倍ズームまで。
Creative Modeは、極端なマクロ撮影、背景をぼかしたい、8倍ズームまで使用したい場合に使う。手動でどこにピントを合わせるか、とか、8倍ズームの時は一番近い被写体と一番遠い被写体の真ん中あたりを指定するらしい。
FacebookやTwitterに連携したり、Lytroが用意しているサーバーに公開したりできる。ブログに貼りたい時は、Lytroに登録後、<iframe>のコードをコピペすればOK。
JPEGへのエクスポートだが、これは残念。1080×1080。だいたい1メガピクセルのカメラ、ってこと。まぁしょうがないか。
Windows対応。Light fieldにフィルタをかけることが出来る。3D対応。特に3Dは、要するにこのカメラ、Kinectみたいに、ピクセルごとの距離を持ってる、ってことだから、3Dはもちろん狙ってくるところだろう。3DTVで表示を目指すとのこと。
普通のカメラとはだいぶ違うカメラ。構図を色々考えてしまいそうだけど、ピントを考えなくて済む分、気軽に取れるのか。
DolbyとMorphoが共同でHDRを開発したようです。
より視覚に近い画像を作れる「Morpho Full HDR」
スマホ写真をもっとくっきりはっきりに! Dolbyが高画質化技術を開発
気になったのは、
一方のDolbyは、JPEGと互換性を保ったまま、16ビットを超える高い分解能で画像を保存・再生できる画像フォーマットを開発した。具体的には、合成されたHDR画像を独自アルゴリズムでエンコードし、既存のJPEG形式として取り扱えるべース画像と、通常は捨てられてしまう残差画像(輝度比率や色差で構成)に分けて保存する。この2つの画像を再度、デコードすれば、分解能が16ビットを超える高い分解能のHDR画像を再生できることになる。それでいて、ファイル容量は一般的なJPEG形式の1.2~1.3倍程度にしか増えないという。
フォーマットを独自に作っちゃった、ということなんだけど、どこまでJPEGと使い勝手が変わらないのか、そもそも16bitの画像を十分表示できるようなディスプレイをスマートフォンが持つのか。こういうのはだいたい受け入れられないんだよな。理解が浅いだけかもしれないけど、ちょっと、違和感がある。
それよりも気になったのは、
半自動画像アノテーション技術は、画像に任意のタグを付加することができる技術。ユーザーは画像から自動で提示された複数のタグ候補の中から選択もしくは新規タグを登録することで、簡単に画像の整理や検索を行えるようになる。
「Flickrなどのフォトストレージでは、手動で画像にタグ付けしなければならず、少しでもこの煩わしい作業を自動化したかった」とモルフォ開発推進室 技術開発グループ エンジニアの和田政弘氏は開発背景を語る。
こういうような技術が好きですな。確かにそのとおり。
メモレーンで過去を記録し、素晴らしい思い出を再発見できます。下記のレーンを閲覧すると、その意味が分かります。
via memolane.com
登録して、さらに自分が使っているSNSなんかをズバズバ登録すると、それをタイムラインとして並べてくれる。こんな感じ。
非公開でも作成できるので、個人的に楽しむこともできます。
ここまではよくある話だけど、チョット感動したのは、「4年前はこんなことありました」ってたまに「memomail」ってメールが来るわけ。これがちょっと嬉しい。楽しい。
iPad,本当にiPod TouchやiPhoneの,画面のでかいやつだ.それ以外,これといって変わりはない.画面回転禁止スイッチが付いたくらい.これは,机の上や膝の上など,平らな部分におくことを想定して作られたものだろう.やっぱり重いし.ちなみにコレは便利だ.
iPhone OS 3.2のSDKも,基本的にはiPhoneのモノとは変わらない.大きな画面対応で,少し部品が増えたくらい.iPadはUIやタッチパネルがいいよね,といっても,これはiPhoneが発売された2007年にはもう確立されたものだ.
「やっぱり買ったんでしょ,どこがいいの?」とよく聞かれるけど,困る.特に大きな,技術的な発展がないから.これを聞かれると,最近のAppleや技術動向に詳しい人ほど困るんじゃあないでしょうか.専門家がよくテレビで「雑誌が読めるんです」「ゲームの迫力が!」と言ってるけど,たぶんあれは,一般向けなコメントで,内心はそう思ってないんじゃないでしょうか.これらは従来のパソコンやネットブックでも出来るのだ.
何が新しいか.それは,「大きいこと」しかない.しかし,iPhoneのUIが大画面対応になった,というところがポイントなんじゃないかと.電子書籍も新しいことではない.回線帯域が大きくなって以来,新聞社をはじめ様々な企業が,この電子書籍,電子新聞を試してきたが,ことごとく失敗している.それは,たぶん,パソコン(特にノート)をターゲットにしてきたから.電子書籍は,今までのデバイスとは相性が悪かった.
「電子書籍が読めるようになるんです」ではなくて,「やっと,電子書籍を読む気になる実用的なデバイスがでました!」というのがいいところなんでしょう.
iPadは電子書籍だけじゃなく,メールだって,カレンダーだって,ゲームだって,非常に見やすい.やっぱり大画面だから.iPhoneで培われたUIかつ,大画面でこれらが利用出来るのは,やはり利点が多いし,インパクトが有るのだ.
画面を大きくするだけで,これだけ売れる.やっぱりAppleの戦略はすごいのである.
でも,iPadでブログは書けないな…
twitterの投稿文字制限数は140文字.これは,英語圏で決められた文字数である.しかし,半角英数字でも140文字,日本語の全角でも140文字だ.前からこれには違和感があったのだけど,あるきっかけがあって,なんとなく調べてみた.
最初は言語ごとのエントロピーの比較をすればいいのかと思ったけど,そんな文献はぱっとは見つからなかったので,とりあえず,天声人語の対訳があったので,それを二つばかり比較してみた.朝日新聞公認の対訳なので,和文英訳の精度はそれなりだろう,という仮定.
だいたい,日本語を英訳するには4倍程度のようだ.だから,英語想定の140文字のサービスを日本語圏で使うとすると,英語の1/4程度,だいたい35〜40文字程度が適切なのではないだろうか.
どうでしょう?
会社のお金で5日間,オブジェクト指向とUMLの研修に行っている.現在3日目.
すばらしい.初めて役に立ってる気がしている社外研修.正直,オブジェクト指向が何なのかよく分かってなかった.今まで貯めてきたオブジェクト指向に関する知識の粒度がバラバラだった点と線がぴったり結びついた感じ.iPhoneアプリ開発や研究にも役立ちそうな感じ.こういうのって幸せですな.
Google Chromeの配布が開始されました.メモリも段違いに食わないし,そのおかげかパソコンも安定しているように感じます.Firefoxを基本的に使っているのですが,そのときはたまにすごく重たくなるときがあって,とても助かっています.愛用しているGoogle CalendarやGmailなどの,JavaScriptの固まりのようなAjax系ページは非常に軽快に動作しています.
でも・・・
・IE7 – 会社のポータルページはこれでしか見られない.
・Firefox – 必須アドオンがある.TiddlyWiki(ローカルWiki)が使える.
・Safari – きれいで早い.
・Chrome – いいねぇ.好き.TiddlyWiki使えない.
となって,結局ブラウザが同時に3種類くらい立ちあがってしまって,結局リソースを食ってしまうんですよね.どうにかならないでしょうか.
—
先日,X-over Development conferenceという,まぁIT系のイベントに参加してきた訳ですが,いろんなことを勉強してアイデアを考えている人がいるもので,自分ももっと勉強しないと,と思う訳ですが,なんか気がついたら最近身の回りがITだらけになっていて,家にいるときくらいはぼーっとしたいという気分になってしまって,だめですね.