並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 34 件 / 34件

新着順 人気順

Interactionの検索結果1 - 34 件 / 34件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

Interactionに関するエントリは34件あります。 AIperformancegithub などが関連タグです。 人気エントリには 『ReazonSpeech - Reazon Human Interaction Lab』などがあります。
  • ReazonSpeech - Reazon Human Interaction Lab

    ReazonSpeech¶ ReazonSpeechは、世界最大のオープン日本語音声コーパスを構築するプロジェクトです。 日本語音声技術の推進を目的として、35,000時間の日本語音声コーパスを公開しています。 音声認識モデル・コーパス作成ライブラリをオープンソースライセンスで配布しています。

    • bayazuma on Twitter: "許可したくなるWebプッシュ通知を考えてみた #webgl #threejs #ui #interaction https://t.co/ZUd40sk4XD"

      許可したくなるWebプッシュ通知を考えてみた #webgl #threejs #ui #interaction https://t.co/ZUd40sk4XD

        bayazuma on Twitter: "許可したくなるWebプッシュ通知を考えてみた #webgl #threejs #ui #interaction https://t.co/ZUd40sk4XD"
      • GitHub - microsoft/UFO: A UI-Focused Agent for Windows OS Interaction.

        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

          GitHub - microsoft/UFO: A UI-Focused Agent for Windows OS Interaction.
        • GitHub - hashicorp/terraform-mcp-server: The Terraform MCP Server provides seamless integration with Terraform ecosystem, enabling advanced automation and interaction capabilities for Infrastructure as Code (IaC) development.

          You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

            GitHub - hashicorp/terraform-mcp-server: The Terraform MCP Server provides seamless integration with Terraform ecosystem, enabling advanced automation and interaction capabilities for Infrastructure as Code (IaC) development.
          • Interaction to Next Paint (INP)  |  Articles  |  web.dev

            INP is calculated by observing all the interactions made with a page. For most sites the interaction with the worst latency is reported as INP. However, for pages with large numbers of interactions, random hiccups can result in an unusually high-latency interaction on an otherwise responsive page. The more interactions that occur on a given page, the more likely this is to happen. To give a better

            • Interaction to Next Paint is officially a Core Web Vital 🚀  |  Blog  |  web.dev

              Today's the day! After years of work, we're finally ready to make Interaction to Next Paint (INP) a stable Core Web Vital metric. This marks a significant step forward in the way we measure interaction responsiveness, addressing many of the shortcomings of First Input Delay (FID). Interaction to Next Paint (INP) promotion timeline. In this post, we'll quickly recap what exactly is changing today,

                Interaction to Next Paint is officially a Core Web Vital 🚀  |  Blog  |  web.dev
              • Interaction Testing with Storybook

                Storybook is the industry-standard tool for building component-driven user interfaces. It enables you to capture component use cases as stories and render them in a browser. During development, you can quickly cycle through them to verify UI appearance. But there's more to a component than just looks. Teams at Target, Adobe, and Shopify import stories in their tests to verify component behavior. N

                  Interaction Testing with Storybook
                • 3 月 12 日に「Interaction to Next Paint」がウェブに関する主な指標に  |  Blog  |  web.dev

                  3 月 12 日に「Interaction to Next Paint」がウェブに関する主な指標に コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。 Interaction to Next Paint は正式に Core Web Vitals となり、First Input Delay に代わって 3 月 12 日に有効になります。 <ph type="x-smartling-placeholder"> Web Vitals プログラムでは、ウェブ デベロッパーがウェブ上のユーザー エクスペリエンスの重要な側面を測定するための指標を提供しています。First Input Delay(FID)は、プログラムの応答性の側面を表していましたが、時が経つにつれて、ウェブのインタラクティビティの側面を捉えるためには、FID にはなかった新しい指標が必要であることが明ら

                    3 月 12 日に「Interaction to Next Paint」がウェブに関する主な指標に  |  Blog  |  web.dev
                  • Luigi Mangione on X: "Modern Japanese urban environment is an evolutionary mismatch for the human animal. The solution to falling birthdates isn’t immigration. It’s cultural. Encourage natural human interaction, sex, physical fitness and spirituality: * b

                    • GitHub - ag-ui-protocol/ag-ui: AG-UI: the Agent-User Interaction Protocol. Bring Agents into Frontend Applications.

                      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                        GitHub - ag-ui-protocol/ag-ui: AG-UI: the Agent-User Interaction Protocol. Bring Agents into Frontend Applications.
                      • Interaction Testing sneak peek

                          Interaction Testing sneak peek
                        • 超高精度で商用利用可能な純国産の日本語音声認識モデル「ReazonSpeech」を無償公開 - Reazon Human Interaction Lab

                          「ReazonSpeech」とは¶ 「ReazonSpeech」は、レアゾン・ヒューマンインタラクション研究所が開発した高精度な音声認識モデルを中心とするプロダクト群で、それぞれ以下のような特徴があります。 ReazonSpeech音声認識モデル: OpenAI Whisper※に匹敵する高精度な日本語音声認識モデル。商用利用可 ReazonSpeechコーパス作成ツール: TV録画データ等から音声コーパスを自動抽出するソフトウェアツール。商用利用可 ReazonSpeech音声コーパス: 世界最大19,000時間の高品質な日本語音声認識モデル学習用コーパス いずれも無償にて公開 [図] ReazonSpeech音声認識モデル使用例¶ [図] スマホの通話内容をReazonSpeechを使ってリアルタイムで自動文字起こししてslackに記録する例¶ 開発の背景¶ 近年、深層学習を用いた音声

                          • LMQL is a programming language for LLM interaction. | LMQL

                            LMQL is a programming language for LLMs. Robust and modular LLM prompting using types, templates, constraints and an optimizing runtime. @lmql.query def meaning_of_life(): '''lmql # top-level strings are prompts "Q: What is the answer to life, the \ universe and everything?" # generation via (constrained) variables "A: [ANSWER]" where \ len(ANSWER) < 120 and STOPS_AT(ANSWER, ".") # results are dir

                              LMQL is a programming language for LLM interaction. | LMQL
                            • Virtual Youtuber Kizuna AI : co-creating human-non-human interaction and celebrity-audience relationship | LUP Student Papers

                              author Zhou, Xin LU supervisor Deniz Neriman Duru LU organization Media and Communication Studies Department of Communication and Media course MKVM13 20201 year 2020 type H2 - Master's Degree (Two Years) subject Social Sciences language English id 9009369 date added to LUP 2020-06-16 10:40:22 date last changed 2020-06-16 10:40:22 @misc{9009369, author = {{Zhou, Xin}}, language = {{eng}}, note = {{

                              • Towards Digital Nature: Bridging the Gap between Turing Machine Objects and Linguistic Objects in LLMMs for Universal Interaction of Object-Oriented Descriptions

                                In this paper, we propose a novel approach to establish a connection between linguistic objects and classes in Large Language Model Machines (LLMMs) such as GPT3.5 and GPT4, and their counterparts in high level programming languages like Python. Our goal is to promote the development of Digital Nature: a worldview where digital and physical realities are seamlessly intertwined and can be easily ma

                                • Advancing Interaction to Next Paint  |  Blog  |  web.dev

                                  Chrome's mission with the Web Vitals program is to help developers focus on the metrics that are essential to great user experiences—the Core Web Vitals. One important aspect of the user experience that we've been focusing on is responsiveness, which is the ability of a web page to react quickly to user interactions. First Input Delay (FID) is the Core Web Vital metric that measures responsiveness

                                    Advancing Interaction to Next Paint  |  Blog  |  web.dev
                                  • The future of AI interaction: Beyond just text

                                    We're only scratching the surface of what it means to interact with our services using AI and natural language. The Model Context Protocol (MCP) is opening up exciting possibilities in this space, but I think we're about to see a major shift in how we think about these interactions. My mind was initially opened to the possibilities of using AI to interact with data and make data mutations when I s

                                      The future of AI interaction: Beyond just text
                                    • Redirecting to: /vanilla/import-on-interaction

                                        Redirecting to: /vanilla/import-on-interaction
                                      • Protein-Ligand Interaction Profiler (PLIP)を用いたタンパク質-低分子相互作用解析【in silico創薬】 - LabCode

                                        1. PLIPとは? PLIPは、PDBフォーマットのタンパク質-リガンド複合体から相互作用を自動検出するツールです。以下のような相互作用を解析できます。 水素結合 (Hydrogen Bonding) 疎水性相互作用 (Hydrophobic Interactions) 塩橋 (Salt Bridges) π-スタッキング (π-Stacking) 金属配位結合 (Metal Coordination) ハロゲン結合 (Halogen Bonds) PLIPは Pythonベース で動作し、コマンドラインまたはWebインターフェースで利用可能です。ブラウザで簡単にやりたい方はこちら。 以下のような論文に実際に使われているツールですので、本記事で出てきた図をそのまま掲載することも可能です。 Identification of Novel Ribonucleotide Reductase I

                                        • VLDL-specific increases of fatty acids in autism spectrum disorder correlate with social interaction

                                          If you don't remember your password, you can reset it by entering your email address and clicking the Reset Password button. You will then receive an email that contains a secure link for resetting your password

                                            VLDL-specific increases of fatty acids in autism spectrum disorder correlate with social interaction
                                          • Computational Life: How Well-formed, Self-replicating Programs Emerge from Simple Interaction

                                            The fields of Origin of Life and Artificial Life both question what life is and how it emerges from a distinct set of "pre-life" dynamics. One common feature of most substrates where life emerges is a marked shift in dynamics when self-replication appears. While there are some hypotheses regarding how self-replicators arose in nature, we know very little about the general dynamics, computational p

                                            • VR/ARの実装は最低限これひとつでOK 「XR Interaction Toolkit」を利用したXR開発 | ログミーBusiness

                                              CA.unityはサイバーエージェントが運営するUnityをテーマにした勉強会です。サイバーエージェントのサービス開発者と社外の開発者を交えて、Unityに関する知見を共有します。初鹿氏は、「XR Interaction Toolkit」の機能について説明をしました。 初鹿デニック氏(以下、初鹿):「XR Interaction Toolkit 1.0.0-preでVR開発してみよう」という題で発表します。よろしくお願いします。 自己紹介です。名前は初鹿デニックと申します。TIS株式会社でXRエンジニアをやっています。本発表は個人の見解で、所属組織の意見ではありません。よろしくお願いします。アジェンダはこのようになります。 まず「XR Interaction Toolkit」について説明をします。XR Interaction ToolkitはUnityが提供するVR/ARインタラクションシ

                                                VR/ARの実装は最低限これひとつでOK 「XR Interaction Toolkit」を利用したXR開発 | ログミーBusiness
                                              • GitHub - VineLang/vine: an experimental new programming language based on interaction nets

                                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                  GitHub - VineLang/vine: an experimental new programming language based on interaction nets
                                                • 脱人間中心HCIとデジタルネイチャー(計算機自然)について / Human-Computer Interaction (HCI) Advent Calendar 2024|落合陽一

                                                  落合陽一です.HCIのアドベントカレンダーがあって12/25が空いていたので書くことにしました.忙しい人は最後だけ読もう.(この記事8万字以上ある:しかし1時間で書いたのでエラーがあったらごめんなさい) はじめに私がPIとしてデジタルネイチャー研を始めたのは2015年のことで,当時27歳でした.それから来年の5月で10周年.なかなか長い旅だなぁと思います.ビジョンペーパーを最初に書くのも良いのですが,そろそろビジョンペーパーを書くかという頃合いになってきたので最近はそんな準備をしています. 今回は脱人間中心HCIとデジタルネイチャー,まず,AIにサクッとweb情報をまとめてもらってからちょっとした本論に入るのがよかろうと思っています.(人類は前提条件の共有に最も時間がかかる) https://digitalnature.slis.tsukuba.ac.jp/vision/ デジタルネイチャ

                                                    脱人間中心HCIとデジタルネイチャー(計算機自然)について / Human-Computer Interaction (HCI) Advent Calendar 2024|落合陽一
                                                  • GitHub - actions/stale: Marks issues and pull requests that have not had recent interaction

                                                    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                      GitHub - actions/stale: Marks issues and pull requests that have not had recent interaction
                                                    • 【記事更新】私のブックマーク「擬人化メディアとHuman-Agent Interaction:「情熱」のあるやり取りを目指して」 | 人工知能学会 (The Japanese Society for Artificial Intelligence)

                                                      Home » リソース » 私のブックマーク » 【記事更新】私のブックマーク「擬人化メディアとHuman-Agent Interaction:「情熱」のあるやり取りを目指して」 米澤 朋子(関西大学総合情報学部,(株)国際電気通信基礎技術研究所深層インタラクション総合研究所) 目次はじめに擬人化メディアとは <導入>擬人化メディアの位置付けと現状 <夢・社会的影響>擬人化擬人化の起源としくみの理論志向姿勢アニマシー知覚と不気味の谷心の知覚と身体(生理)共感と擬人化擬人化システムの構成身体性としての外観(表出機構)知能(内部/AIデザイン)フィールド応用と発展、製品HAIにおける状況他分野との相互作用、およびHAI研究の体系化の難しさHAIにおける課題HAIに関連する学術コミュニティ会議系その他国内会議や研究会などローカル系研究プロジェクト・組織系研究室など(高校生・受験生向け)おわりに謝

                                                      • UIコンポーネントにおけるInteraction StatesとState Layerの考察 - Goodpatch Tech Blog

                                                        この記事は Goodpatch Advent Calendar 9日目の記事です。アドベントカレンダー2つ目の記事をなんとか書くことができた大角です。 今回はインタラクティブなUIコンポーネントの状態変化において、一貫性を持ちながら、効率よく実装するために「Interaction States」と「StateLayer」の概念を理解し、それをどのように実装するかについて考察します。 Interaction Statesとは Interaction StatesにおけるState Layer Interaction Statesの実装 レイヤーを定義する 状態変化に合わせて、StateLayerの透明度を変更する ボタンに複数のVariantを定義する ボタンに複数のThemeを定義する 実装デモ おわりに Interaction Statesとは Interaction Statesは、イ

                                                          UIコンポーネントにおけるInteraction StatesとState Layerの考察 - Goodpatch Tech Blog
                                                        • Human-Computer Interaction (HCI) Advent Calendar 2021 - Adventar

                                                          幅広く HCI に関することならなんでも! 自分の研究や分野紹介、好きな論文、研究tips (e.g., サーベイ方法・ワークライフバランスの保ち方)、ハマってるガジェット、などなどなんでもありです! ※ ヒューマンコンピュータインタラクション(英語: human-computer interaction)とは、計算機技術の設計や利用方法について研究をし、特に人間(ユーザ)と計算機(群)とのインタフェースについて着目した学問領域、研究分野の1つである。略称はHCI。 こうした研究分野の特性上、学術分野として、計算機科学・行動科学・インダストリアルデザイン・認知科学・生命科学・建築学及びいくつかの研究分野の混じり合う地点に位置するといえる。故に、HCI分野の成果物は、これらの領域を横断したり、それらをかけ合わせたり、組み合わせた成果となることが一般的である。 (wikipediaより)

                                                            Human-Computer Interaction (HCI) Advent Calendar 2021 - Adventar
                                                          • Invisible Details of Interaction Design

                                                            Design can feel like there's no science to it — only feel and intuition. Even researchers have trouble grounding interaction design practices in science, inherently treating them as a mysterious black box. 1 While from my own experience that's partly true, I have been trying to deconstruct and dig out the why behind great displays of interaction design. Searching the Internet for depth on interact

                                                              Invisible Details of Interaction Design
                                                            • GitHub - ictnlp/LLaMA-Omni: LLaMA-Omni is a low-latency and high-quality end-to-end speech interaction model built upon Llama-3.1-8B-Instruct, aiming to achieve speech capabilities at the GPT-4o level.

                                                              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                GitHub - ictnlp/LLaMA-Omni: LLaMA-Omni is a low-latency and high-quality end-to-end speech interaction model built upon Llama-3.1-8B-Instruct, aiming to achieve speech capabilities at the GPT-4o level.
                                                              • Reazon Human Interaction Lab

                                                                Reazon Human Interaction Laboratory¶ 研究所ニュース¶

                                                                • GitHub - projectdiscovery/interactsh: An OOB interaction gathering server and client library

                                                                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                    GitHub - projectdiscovery/interactsh: An OOB interaction gathering server and client library
                                                                  • GitHub - TeamTopologies/Team-Shape-Templates: Templates for popular drawing and diagramming tools to represent the team types and team interaction modes in Team Topologies

                                                                    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                      GitHub - TeamTopologies/Team-Shape-Templates: Templates for popular drawing and diagramming tools to represent the team types and team interaction modes in Team Topologies
                                                                    • rabbitOS - shaping the future of human-machine interaction

                                                                      rabbit OS is a bespoke operating system for r1. the large action model (LAM) is the cornerstone of rabbit OS. rabbit OS and LAM are designed to work together to understand human intentions and execute a sequence of actions with human-level reasoning. intentionrabbit OS will first understand what you mean by parsing your natural language voice prompt. Human intentions are deeply personal, have laye

                                                                        rabbitOS - shaping the future of human-machine interaction
                                                                      1

                                                                      新着記事