llm = OpenAI( model="gpt-3.5-turbo-instruct", ) for chunk in llm.stream("Hello?"): print(chunk) このように非常に簡単に実装可能です。 しかし、これをサーバーサイドとして扱う場合には通常のAPIではなく、リアルタイムな通信処理を実装する必要があります。 この時に有効なのがServer-Sent Eventsです。 Server-Sent Eventsとは Server-Sent Events(以下SSE)とはリアルタイムな通信をHTTP経由で提供する技術です。 似た技術としてはWebSocketがありますが、WebSocketが双方向であるのに対し、SSEはサーバーからクライアントへの単方向通信となっています。 その分扱いが簡単なので、クライアント側からリアルタイムに情報を送る必要がない場合はこち
![FastAPIでServer-Sent Eventsを実装する - Qiita](https://cdn-ak-scissors.b.st-hatena.com/image/square/ba6892621208177c035aab690112ba0c35a7d435/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-9f5428127621718a910c8b63951390ad.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTkxNiZoPTMzNiZ0eHQ9RmFzdEFQSSVFMyU4MSVBN1NlcnZlci1TZW50JTIwRXZlbnRzJUUzJTgyJTkyJUU1JUFFJTlGJUU4JUEzJTg1JUUzJTgxJTk5JUUzJTgyJThCJTIwJnR4dC1jb2xvcj0lMjMyMTIxMjEmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9NTYmdHh0LWNsaXA9ZWxsaXBzaXMmdHh0LWFsaWduPWxlZnQlMkN0b3Amcz0xMzFkMzc2YTJkZmM1MzQ1ZWNhZDQ3ZDM0MDY1ZDg4Mw%26mark-x%3D142%26mark-y%3D112%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTcxNiZ0eHQ9JTQwaGlnaG5vX1JRJnR4dC1jb2xvcj0lMjMyMTIxMjEmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9MzImdHh0LWFsaWduPWxlZnQlMkN0b3Amcz02NGE2MmFkMDY5YjE2MDk4YTMwM2E5MWE4NTliZDIxYg%26blend-x%3D142%26blend-y%3D491%26blend-mode%3Dnormal%26s%3D5d709a837de59cfab5bc69f1dc642685)