RFC1152 日本語訳
1152 Workshop report: Internet research steering group workshop onvery-high-speed networks. C. Partridge. April 1 1990. (Format: TXT=64003 bytes) (Status: INFORMATIONAL)
プログラムでの自動翻訳です。
RFC一覧
英語原文
Network Working Group C. Partridge Request for Comments: 1152 BBN Systems and Technologies April 1990
コメントを求めるワーキンググループC.ヤマウズラ要求をネットワークでつないでください: 1152台のBBNシステムと技術1990年4月
Workshop Report Internet Research Steering Group Workshop on Very-High-Speed Networks
まさしくその高速ネットワークに関するワークショップレポートインターネット研究運営グループワークショップ
Status of this Memo
このMemoの状態
This memo is a report on a workshop sponsored by the Internet Research Steering Group. This memo is for information only. This RFC does not specify an Internet standard. Distribution of this memo is unlimited.
このメモはインターネットResearch Steering Groupによって後援されたワークショップに関するレポートです。 このメモは情報だけのためのものです。 このRFCはインターネット標準を指定しません。 このメモの分配は無制限です。
Introduction
序論
The goal of the workshop was to gather together a small number of leading researchers on high-speed networks in an environment conducive to lively thinking. The hope is that by having such a workshop the IRSG has helped to stimulate new or improved research in the area of high-speed networks.
ワークショップの目標は活気がある考えに役に立つ環境で少ない数の指導的研究者を高速ネットワークに集めることでした。 望みはIRSGがそのようなワークショップを持っていることによって、新しい状態で刺激となるのを助けるか、または高速ネットワークの領域で研究を改良したということです。
Attendance at the workshop was limited to fifty people, and attendees had to apply to get in. Applications were reviewed by a program committee, which accepted about half of them. A few key individuals were invited directly by the program committee, without application. The workshop was organized by Dave Clark and Craig Partridge.
ワークショップの出席は50人の人に制限されました、そして、出席者は入るのに申し込まなければなりませんでした。 アプリケーションはプログラム委員会によって批評されました。(委員会はそれらのおよそ半分を受け入れました)。 いくつかの主要な個人がアプリケーションなしで直接プログラム委員会によって招待されました。 ワークショップはデーブ・クラークとクレイグPartridgeによって計画されました。
This workshop report is derived from session writeups by each of the session chairman, which were then reviewed by the workshop participants.
セッション議長の各人はこのワークショップレポートにセッション記事に由来されています。(次に、その各人は、講習会参加者によって見直されました)。
Session 1: Protocol Implementation (David D. Clark, Chair)
セッション1: プロトコル実装(デヴィッド・D.クラーク、議長)
This session was concerned with what changes might be required in protocols in order to achieve very high-speed operation.
このセッションはどんな変化が非常に高速な操作を達成するのにプロトコルで必要であるかもしれないかに関係がありました。
The session was introduced by David Clark (MIT LCS), who claimed that existing protocols would be sufficient to go at a gigabit per second, if that were the only goal. In fact, proposals for high-speed networks usually include other requirements as well, such as going long distances, supporting many users, supporting new services such as reserved bandwidth, and so on. Only by examining the detailed requirements can one understand and compare various proposals for protocols. A variety of techniques have been proposed to permit protocols to operate at high speeds, ranging from clever
セッションはデヴィッド・クラーク(MIT LCS)によって導入されました、それが唯一の目標であるなら。(彼は既存のプロトコルが1秒あたり1つのギガビットを攻撃するために十分であると主張しました)。 事実上、通常、高速ネットワークのための提案はまた、他の要件を含んでいます、買い持ちしている距離などのように、多くのユーザをサポートして、予約された帯域幅などなどの新種業務をサポートして。 単に詳細な要件を調べることによって、1つは、プロトコルのための様々な提案を理解して、比較できます。 さまざまなテクニックが、賢明であるのから変化して、プロトコルが高速で作動することを許可するために提案されました。
Partridge [Page 1] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[1ページ]RFC1152IRSGワークショップレポート1990年4月
implementation to complete relayering of function. Clark asserted that currently even the basic problem to be solved is not clear, let alone the proper approach to the solution.
機能が「再-レイヤ」であることを完成する実装。 クラークは、現在の解決するべき基本的問題さえ明確でないと断言して、単独でソリューションへの適切なアプローチをさせてください。
Mats Bjorkman (Uppsala University) described a project that involved the use of an outboard protocol processor to support high-speed operation. He asserted that his approach would permit accelerated processing of steady-state sequences of packets. Van Jacobson (LBL) reported results that suggest that existing protocols can operate at high speeds without the need for outboard processors. He also argued that resource reservation can be integrated into a connectionless protocol such as IP without losing the essence of the connectionless architecture. This is in contrast to a more commonly held belief that full connection setup will be necessary in order to support resource reservation. Jacobson said that he has an experimental IP gateway that supports resource reservation for specific packet sequences today.
マッツ・ビョークマン(ウプサラ大学)は高速操作をサポートするために船外のプロトコルプロセッサの使用にかかわったプロジェクトについて説明しました。 彼は、彼のアプローチがパケットの定常状態系列の加速している処理を可能にすると断言しました。 ヴァン・ジェーコブソン(LBL)は船外のプロセッサの必要性なしで既存のプロトコルが高速で作動できるという示される結果を報告しました。 また、彼は、コネクションレスなアーキテクチャの本質を失うことのないIPなどのコネクションレスプロトコルと資源予約を統合できると主張しました。 これは完全な接続設定が資源予約をサポートするために必要になるという一般的により保持された信念と対照的になっています。 ジェーコブソンは、彼が今日特定のパケット系列の資源予約をサポートする実験的なIPゲートウェイを持っていると言いました。
Dave Borman (Cray Research) described high-speed execution of TCP on a Cray, where the overhead is most probably the system and I/O architecture rather than the protocol. He believes that protocols such as TCP would be suitable for high-speed operation if the windows and sequence spaces were large enough. He reported that the current speed of a TCP transfer between the processors of a Cray Y-MP was over 500 Mbps. Jon Crowcroft (University College London) described the current network projects at UCL. He offered a speculation that congestion could be managed in very high-speed networks by returning to the sender any packets for which transmission capacity was not available.
デーヴ・ボーマン(クレイリサーチ)はクレイにおけるTCPの高速実行について説明しました。そこでは、オーバーヘッドは、最もたぶんプロトコルよりむしろシステムと入出力アーキテクチャです。 彼は、窓と系列空間が十分大きいならTCPなどのプロトコルが高速操作に適していると信じています。 彼は、クレイY-MPのプロセッサの間のTCP転送の流速が500Mbpsであると報告しました。 ジョン・クロウクロフト(ユニバーシティ・カレッジロンドン)はUCLで現在のネットワークプロジェクトについて説明しました。 彼は送信能力が有効でなかったどんなパケットも送付者に返すことによって非常に高速なネットワークで混雑に対処できるだろうという思惑を提供しました。
Dave Feldmeier (Bellcore) reported on the Bellcore participation in the Aurora project, a joint experiment of Bellcore, IBM, MIT, and UPenn, which has the goal of installing and evaluating two sorts of switches at gigabit speeds between those four sites. Bellcore is interested in switch and protocol design, and Feldmeier and his group are designing and implementing a 1 Gbps transport protocol and network interface. The protocol processor will have special support for such things as forward error correction to deal with ATM cell loss in VLSI; a new FEC code and chip design have been developed to run at 1 Gbps.
デーヴFeldmeier(Bellcore)はAuroraプロジェクト、Bellcoreの共同実験、IBM、MIT、およびUPennへのそれらの4つのサイトの間のギガビット速度で2種類のスイッチをインストールして、評価するという目標を持っているBellcore参加に関して報告しました。 Bellcoreがスイッチとプロトコルデザインに興味を持っていて、Feldmeierと彼のグループは、1Gbpsがトランスポート・プロトコルとネットワーク・インターフェースであると設計して、実装しています。 プロトコルプロセッサには、VLSIにおけるATM細胞消失に伴う取扱う前進型誤信号訂正のようなものの特別なサポートがあるでしょう。 1Gbpsで稼働するために新しいFECコードとチップデザインを開発してあります。
Because of the large number of speakers, there was no general discussion after this session.
多くのスピーカーのために、このセッションの後に、どんな一般的な議論もありませんでした。
Partridge [Page 2] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[2ページ]RFC1152IRSGワークショップレポート1990年4月
Session 2: High-Speed Applications (Keith Lantz, Chair)
セッション2: 高速アプリケーション(キース・ランツ、議長)
This session focused on applications and the requirements they impose on the underlying networks. Keith Lantz (Olivetti Research California) opened by introducing the concept of the portable office - a world where a user is able to take her work with her wherever she goes. In such an office a worker can access the same services and the same people regardless of whether she is in the same building with those services and people, at home, or at a distant site (such as a hotel) - or whether she is equipped with a highly portable, multi-media workstation, which she can literally carry with her wherever she goes. Thus, portable should be interpreted as referring to portability of access to services rather than to portability of hardware. Although not coordinated in advance, each of the presentations in this session can be viewed as a perspective on the portable office.
このセッションはそれらが基本的なネットワークに課すアプリケーションと要件に焦点を合わせました。 キース・ランツ(オリベッティResearchカリフォルニア)は携帯用のオフィスの概念を紹介することによって、開きました--どこに行ってもユーザが彼女と共に彼女の仕事を取ることができる世界。 そのようなオフィスでは、彼女がホームにおける、または、遠位部位のそれらのサービスと人々と共に同じビルにいるか(ホテルなどの)、または彼女が彼女と共に行くところまで文字通りどこでも、運ぶことができる非常に携帯用のマルチメディアワークステーションを備えているかどうかにかかわらず労働者が同じサービスと同じ人々にアクセスできます。 その結果、携帯用、ハードウェアの移植性にというよりむしろサービスへのアクセスの移植性について言及しながら、解釈されるべきです。 あらかじめ調整されませんが、見解として携帯用のオフィスでこのセッションにおける、それぞれのプレゼンテーションを見なすことができます。
The bulk of Lantz's talk focused on desktop teleconferencing - the integration of traditional audio/video teleconferencing technologies with workstation-based network computing so as to enable geographically distributed individuals to collaborate, in real time, using multiple media (in particular, text, graphics, facsimile, audio, and video) and all available computer-based tools, from their respective locales (i.e., office, home, or hotel). Such a facility places severe requirements on the underlying network. Specifically, it requires support for several data streams with widely varying bandwidths (from a few Kbps to 1 Gbps) but generally low delay, some with minimal jitter (i.e., isochronous), and all synchronized with each other (i.e., multi-channel or media synchronization). It appears that high-speed network researchers are paying insufficient attention to the last point, in particular. For example, the bulk of the research on ATM has assumed that channels have independent connection request and burst statistics; this is clearly not the case in the context of desktop teleconferencing.
ランツの話の大半がデスクトップ電子会議に焦点を合わせました--、ワークステーションベースのネットワークコンピューティングがある伝統的なオーディオ/ビデオ遠隔会議技術の統合、分配された個人が共同するのを地理的に可能にしてください、リアルタイムで、マルチメディア(特にテキスト、グラフィックス、ファクシミリ、オーディオ、およびビデオ)とすべての利用可能なコンピュータベースのツールを使用して、それらのそれぞれの現場(すなわち、オフィス、ホーム、またはホテル)から。 そのような施設は厳しい要件を基本的なネットワークに置きます。 明確に、それはいくつかのデータ・ストリームに広く帯域幅(いくつかのKbpsから1Gbpsまでの)にもかかわらず、一般に低い遅れ、すなわち、最小量のジターが(同一時間)であることでのいくつか、および互いと同期するすべて(すなわち、マルチチャンネルかメディア同期)を変えるのに支持を要します。 高速ネットワーク研究者が最後のポイントに不十分に注意を向けているように特に見えます。 例えば、ATMの研究の大半が、チャンネルが独立している接続が統計を要求して、押し破くのをさせると仮定しました。 これはデスクトップ電子会議の文脈で明確にそうではありません。
Lantz also stressed the need for adaptive protocols, to accommodate situations where the capacity of the network is exceeded, or where it is necessary to interoperate with low-speed networks, or where human factors suggest that the quality of service should change (e.g., increasing or decreasing the resolution of a video image). Employing adaptive protocols suggests, first, that the interface to the network protocols must be hardware-independent and based only on quality of service. Second, a variety of code conversion services should be available, for example, to convert from one audio encoding scheme to another. Promising examples of adaptive protocols in the video domain include variable-rate constant-quality coding, layered or embedded coding, progressive transmission, and (most recently, at UC-Berkeley) the extension of the concepts of structured graphics to
また、ランツは、ネットワークの容量が超えられているか、低速ネットワークと共に共同利用するのが必要であるか、または人間の要素がサービスの質が変化するべきであると示唆する状況(例えば、ビデオ画像の解決を増強するか、または減少させる)を収容するために適応型のプロトコルの必要性を強調しました。 適応型のプロトコルを使うのは、最初に、ネットワーク・プロトコルへのインタフェースがサービスの質だけにハードウェアから独立していて基づくに違いないと示唆します。 2番目に、例えば、さまざまなコード変換サービスが、体系をコード化する1個のオーディオから別のオーディオまで変換するために利用可能であるべきです。 ビデオドメインの適応型のプロトコルに関する例が構造化されたグラフィックスの概念のコード化、進歩的なトランスミッション、および(UC-バークレーのごく最近)拡大を変動金利一定の品質コード化を含んでいたか、層にしたか、または埋め込んだと約束します。
Partridge [Page 3] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[3ページ]RFC1152IRSGワークショップレポート1990年4月
video, such that the component elements of the video image are kept logically separate throughout the production-to-presentation cycle.
ビデオ、ビデオ画像のコンポーネント要素が生産からプレゼンテーションへのサイクルの間中論理的に別々に保たれるようなもの。
Charlie Catlett (National Center for Supercomputing Applications) continued by analyzing a specific scientific application, simulation of a thunderstorm, with respect to its network requirements. The application was analyzed from the standpoint of identifying data flow and the interrelationships between the computational algorithms, the supercomputer CPU throughput, the nature and size of the data set, and the available network services (throughput, delay, etc).
チャーリー・キャトレット(国立スーパーコンピューター応用研究所)は特定の科学的な応用を分析することによって、続きました、雷雨のシミュレーション、ネットワーク要件に関して。 アプリケーションはコンピュータのアルゴリズムの間のデータフローと相互関係、スーパーコンピュータCPUスループット、データセットの自然とサイズ、および利用可能なネットワーク・サービス(スループット、遅れなど)を特定する見地から分析されました。
Simulation and the visualization of results typically involves several steps:
結果のシミュレーションと想像は以下の数ステップに通常かかわります:
1. Simulation
1. シミュレーション
2. Tessellation (transform simulation data into three-dimensional geometric volume descriptions, or polygons)
2. モザイク模様(立体的な幾何学上ボリューム記述、または多角形への変換シミュレーションデータ)
3. Rendering (transform polygons into raster image)
3. レンダリング(ラスター・イメージへの変換多角形)
For the thunderstorm simulation, the simulation and tessellation are currently done using a Cray supercomputer and the resulting polygons are sent to a Silicon Graphics workstation to be rendered and displayed. The simulation creates data at a rate of between 32 and 128 Mbps (depending on the number of Cray-2 processors working on the simulation) and the tessellation output data rate is in typically in the range of 10 to 100 Mbps, varying with the complexity of the visualization techniques. The SGI workstation can display 100,000 polygons/sec which for this example translates to up to 10 frames/sec. Analysis tools such as tracer particles and two- dimensional slices are used interactively at the workstation with pre-calculated polygon sets.
雷雨シミュレーションにおいて、シミュレーションとモザイク模様は現在クレイスーパーコンピュータを使用し終わっています、そして、レンダリングして、表示するために結果として起こる多角形をシリコングラフィックスワークステーションに送ります。 シミュレーションは32〜128Mbps(シミュレーションに動くクレイ-2台のプロセッサの数に依存する)と出力データ信号速度が10〜100Mbpsの範囲に通常あるモザイク模様のレートでデータを作成します、可視化技術の複雑さに従って異なって。 SGIワークステーションはこの例のために翻訳される10万多角形/秒から最大10フレーム/秒表示できます。 トレーサ粒子や2の次元部分などの解析ツールはワークステーションであらかじめ計算された多角形セットでインタラクティブに使用されます。
In the next two to three years, supercomputer speeds of 10-30 GFLOPS and workstation speeds of up to 1 GFLOPS and 1 million polygons/second display are projected to be available. Increased supercomputer power will yield a simulation data creation rate of up to several Gbps for this application. The increased workstation power will allow both tessellation and rendering to be done at the workstation. The use of shared window systems will allow multiple researchers on the network to collaborate on a simulation, with the possibility of each scientist using his or her own visualization techniques with the tessellation process running on his or her workstation. Further developments, such as network virtual memory, will allow the tessellation processes on the workstations to access variables directly in supercomputer memory.
次の2〜3年間で、10-30 ギガフロップスのスーパーコンピュータ速度と最大1つのギガフロップスと100万多角形/秒ディスプレイのワークステーション速度が利用可能であると予測されます。 増強されたスーパーコンピュータパワーはデータ作成がこのアプリケーションのために数個のGbpsまで評価するシミュレーションをもたらすでしょう。 モザイク模様とレンダリングの両方が増強されたワークステーションパワーはワークステーションで大丈夫にさせます。 ネットワークの複数の研究者が共有されたウィンドウシステムの使用でシミュレーションで共同できるでしょう、それぞれの科学者の可能性がモザイク模様プロセスがその人のワークステーションで動いているその人の自己の可視化技術を使用していて。 ネットワーク仮想記憶などのさらなる開発で、ワークステーションの上のモザイク模様プロセスは直接スーパーコンピュータメモリで変数にアクセスできるでしょう。
Partridge [Page 4] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[4ページ]RFC1152IRSGワークショップレポート1990年4月
Terry Crowley (BBN Systems and Technologies) continued the theme of collaboration, in the context of real-time video and audio, shared multimedia workspaces, multimedia and video mail, distributed file systems, scientific visualization, network access to video and image information, transaction processing systems, and transferring data and computational results between workstations and supercomputers. In general, such applications could help groups collaborate by directly providing communication channels (real-time video, shared multimedia workspaces), by improving and expanding on the kinds of information that can be shared (multimedia and video mail, supercomputer data and results), and by reducing replication and the complexity of sharing (distributed file systems, network access to video and image information).
テリー・クローリー(BBN SystemsとTechnologies)は共同のテーマを続けていました、レアルタイムビデオ、オーディオ、共有されたマルチメディアワークスペース、マルチメディア、およびビデオメールの文脈と、分散ファイルシステムと、サイエンティフィック・ビジュアライゼーションと、ビデオへのネットワークアクセスと、画像情報と、トランザクション処理システムと、ワークステーションとスーパーコンピュータの間のデータとコンピュータの結果を移す際に。 一般に、そのようなアプリケーションは、グループが直接、通信チャネル(レアルタイムビデオ、共有されたマルチメディアワークスペース)を提供して、共有できる情報(マルチメディア、ビデオメール、スーパーコンピュータデータ、および結果)の種類を改良して、詳述して、共有(分散ファイルシステム、ビデオと画像情報へのネットワークアクセス)の模写と複雑さを抑えることによって共同するのを助けるかもしれません。
Actual usage patterns for these applications are hard to predict in advance. For example, real-time video might be used for group conferencing, for video phone calls, for walking down the hall, or for providing a long-term shared viewport between remote locations in order to help establish community ties. Two characteristics of network traffic that we can expect are the need to provide multiple data streams to the end user and the need to synchronize these streams. These data streams will include real-time video, access to stored video, shared multimedia workspaces, and access to other multimedia data. A presentation involving multiple data streams must be synchronized in order to maintain cross-references between them (e.g., pointing actions within the shared multimedia workspace that are combined with a voice request to delete this and save that). While much traffic will be point-to-point, a significant amount of traffic will involve conferences between multiple sites. A protocol providing a multicast capability is critical.
これらのアプリケーションのための実際の用法パターンはあらかじめ、予測しにくいです。 例えば、レアルタイムビデオはグループ会議に使用されるかもしれません、ビデオ電話のために、ホール下か共同体の結びつきを確立するのを助けるために長期の共有されたビューポートを離れた場所の間に提供することように歩くために。 私たちが予想できるネットワークトラフィックの2つの特性が、複数のデータ・ストリームをエンドユーザに供給する必要性とこれらのストリームを同期させる必要性です。これらのデータ・ストリームはレアルタイムビデオ、保存されたビデオ、共有されたマルチメディアワークスペース、および他のマルチメディアデータへのアクセスへのアクセスを含むでしょう。 複数のデータ・ストリームにかかわるプレゼンテーションは、それら(例えば、これを削除して、それを保存するという声の要求に結合される共有されたマルチメディアワークスペースの中で動作を指す)の間の相互参照を維持するために同時にしなければなりません。 多くのトラフィックが二地点間になる間、かなりの量のトラフィックが複数のサイトの間の会議にかかわるでしょう。 マルチキャスト能力を提供するプロトコルは重要です。
Finally, Greg Watson (HP) presented an overview of ongoing work at the Hewlett-Packard Bristol lab. Their belief is that, while applications for high-speed networks employing supercomputers are the the technology drivers, the economic drivers will be applications requiring moderate bandwidth (say 10 Mbps) that are used by everyone on the network.
最終的に、グレッグ・ワトソン(ヒューレット・パッカード)はヒューレット・パッカードブリストル研究室に進行中の仕事の概要を提示しました。 それらの信念はスーパーコンピュータを使う高速ネットワークのアプリケーションが技術ドライバーであるのにもかかわらずの、経済ドライバーが適度の帯域幅(10Mbpsを言う)を必要とするアプリケーションにネットワークの皆によって使用されるなるということです。
They are investigating how multimedia workstations can assist distributed research teams - small teams of people who are geographically dispersed and who need to work closely on some area of research. Each workstation provides multiple video channels, together with some distributed applications running on personal computers. The bandwidth requirements per workstation are about 40 Mbps, assuming a certain degree of compression of the video channels. Currently the video is distributed as an analog signal over CATV equipment. Ideally it would all be carried over a single, unified wide-area network operating in the one-to-several Gbps range.
彼らはマルチメディアワークステーションがどう分配された調査チームを補助できるかを調査しています--地理的に分散されて、研究の何らかの領域で緊密に働く必要がある人々の小さいチーム。 各ワークステーションはパーソナルコンピュータで動くいくつかの分配されたアプリケーションと共に複数のビデオ回線を提供します。 ある度合いのビデオ回線の要約を仮定して、1ワークステーションあたりの帯域幅要件はおよそ40Mbpsです。 現在の、ビデオはアナログ信号としてCATV設備の上に分配されます。 理想的に、それは数個への1つのGbps範囲で作動する単一の、そして、統一された広域ネットワークの上まですべて運ばれるでしょう。
Partridge [Page 5] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[5ページ]RFC1152IRSGワークショップレポート1990年4月
They have constructed a gigabit network prototype and are currently experimenting with uncompressed video carried over the same network as normal data traffic.
彼らは、ギガビットネットワークプロトタイプを構成して、現在、通常のデータ通信量と同じネットワークの上まで運ばれた解凍されたビデオを実験しています。
Session 3: Lightwave Technology and its Implications (Ira Richer, Chair)
セッション3: 光波TechnologyとそのImplications(イラ・リシェ、議長)
Bob Kennedy (MIT) opened the session with a talk on network design in an era of excess bandwidth. Kennedy's research is focused on multi- purpose networks in which bandwidth is not a scarce commodity, networks with bandwidths of tens of terahertz. Kennedy points out that a key challenge in such networks is that electronics cannot keep up with fiber speeds. He proposes that we consider all-optical networks (in which all signals are optical) with optoelectronic nodes or gateways capable of recognizing and capturing only traffic destined for them, using time, frequency, or code divisions of the huge bandwidth. The routing algorithms in such networks would be extremely simple to avoid having to convert fiber-optics into slower electronic pathways to do switching.
ボブ・ケネディ(MIT)は話との余分な帯域幅の時代のネットワークデザインのセッションを開きました。 ケネディの研究は帯域幅が不足している商品でないマルチ目的ネットワークに焦点を合わせられます、10のテラヘルツの帯域幅に伴うネットワーク。 ケネディは、そのようなネットワークにおける主要な挑戦がエレクトロニクスがファイバー速度について行くことができないということであると指摘します。 彼は、私たちが、それらのために運命づけられたトラフィックだけを認識して、光電子工学のノードかゲートウェイがあるオール光学のネットワーク(すべての信号がそこで光学である)が得ることができると考えるよう提案します、巨大な帯域幅の時間、頻度、またはコード区画を費やして。 そのようなネットワークにおけるルーティング・アルゴリズムは切り換えをするために、より遅い電子小道に光ファイバーを変換しなければならないのを避けるのが非常に簡単でしょう。
Rich Gitlin (AT&T Bell Labs) gave a talk on issues and opportunities in broadband telecommunications networks, with emphasis on the role of fiber optic and photonic technology. A three-level architecture for a broadband telecommunications network was presented. The network is B-ISDN/ATM 150 (Mbps) based and consists of: customer premises equipment (PBXs, LANs, multimedia terminals) that access the network via a router/gateway, a Network Node (which is a high performance ATM packet switch) that serves both as a LAN-to-LAN interconnect and as a packet concentrator for traffic destined for CPE attached to other Network Nodes, and a backbone layer that interconnects the NODES via a Digital Cross-Connect System that provide reconfigurable SONET circuits between the NODES (the use of circuits minizes delay and avoids the need for implementation of peak-transmission-rate packet switching). Within this framework, the most likely places for near-term application of photonics, apart from pure transport (ie, 150 Mbps channels in a 2.4 Gbps SONET system), are in the Cross-Connect (a Wavelength Division Multiplexed based structure was described) and in next-generation LANs that provide Gigabit per second throughputs by use of multiple fibers, concurrent transmission, and new access mechanisms (such as store and forward).
金持ちのギトリン(AT&Tベル研究所)は光ファイバーと光通信技術の役割への強調と共に広帯域のテレコミュニケーションネットワークの問題と機会で講演しました。 広帯域のテレコミュニケーションネットワークのための3レベルのアーキテクチャは提示されました。 ネットワークは、(Mbps)が基礎づけたB-ISDN/ATM150であり、以下から成ります。 ルータ/ゲートウェイを通してネットワークにアクセスする顧客端末(PBXs、LAN、マルチメディア端末)、LANからLANへの内部連絡としてトラフィックのためのパケット集中装置として機能するNetwork Node(高性能ATMパケット交換機である)は他のNetwork Nodesに取り付けられたCPEのために運命づけました; そして、NODES(回路の使用は、遅れをminizesして、ピーク通信速度パケット交換の実装の必要性を避ける)の間の再構成可能Sonet回路を提供するCross接続しているDigital Systemを通してNODESとインタコネクトするバックボーン層。 このフレームワークの中に、純粋な輸送(ie、150Mbpsが2.4Gbps Sonetシステムで精神を集中する)は別として、光通信学の短期間アプリケーションのための最もありそうな場所が複数のファイバーの使用で2番目のスループットあたりのGigabitを提供する次世代LANにおけるCross接続していて(Wavelengthの事業部のMultiplexedのベースの構造は説明されました)、同時発生のトランスミッション、および新しいアクセス機構(店やフォワードなどの)にあります。
A planned interlocation Bell Labs multimedia gigabit/sec research network, LuckyNet, was described that attempts to extend many of the above concepts to achieve its principal goals: provision of a gigabit per second capability to a heterogeneous user community, the stimulation of applications that require Gpbs throughput (initial applications are video conferencing and LAN interconnect), and, to the extent possible, be based on standards so that interconnection with other Gigabit testbeds is possible.
研究ネットワーク(LuckyNet)が説明された計画された事業所間ベル研究所マルチメディアギガビット/秒のときに、それは、主な目的を達成するために上記の概念の多くについて敷衍するのを試みます: 他のGigabitテストベッドがあるそのインタコネクトが可能であるように規格にギガビットについて種々雑多なユーザーコミュニティ、そして可能な範囲内で、Gpbsスループット(初期のアプリケーションは、ビデオ会議とLAN内部連絡である)を必要とするアプリケーションの刺激への2番目の能力あたり支給して、基づいてください。
Partridge [Page 6] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[6ページ]RFC1152IRSGワークショップレポート1990年4月
Session 4: High Speed Networks and the Phone System (David Tennenhouse, Chair)
セッション4: 高速ネットワークと電話システム(デヴィッドTennenhouse、議長)
David Tennenhouse (MIT) reported on the ATM workshop he hosted the two days previous to this workshop. His report will appear as part of the proceedings of his workshop.
デヴィッドTennenhouse(MIT)は、ATMに関して彼が2日間主催したそのワークショップがこのワークショップに前であると報告しました。 彼のレポートは彼のワークショップの議事の一部として現れるでしょう。
Wally St. John (LANL) followed with a presentation on the Los Alamos gigabit testbed. This testbed is based on the High Performance Parallel Interface (HPPI) and on crossbar switch technology. LANL has designed its own 16x16 crossbar switch and has also evaluated the Network Systems 8x8 crossbar switch. Future plans for the network include expansion to the CASA gigabit testbed. The remote sites (San Diego Supercomputer Center, Caltech, and JPL) are configured similarly to the LANL testbed. The long-haul interface is from HPPI to/from SONET (using ATM if in time).
ロスアラモスギガビットテストベッドの上にプレゼンテーションがある状態で、ウォリー・セント・ジョン(LANL)は続きました。 HighパフォーマンスParallel Interface(HPPI)に基づいたクロスバースイッチ技術の上にこのテストベッドはあります。 LANLはそれ自身の16×16クロスバースイッチを設計して、また、Network Systems8x8クロスバースイッチを評価しました。 ネットワークのための将来のプランはカサギガビットテストベッドへの拡張を含んでいます。 リモートサイト(サンディエゴのSupercomputerセンター、カリフォルニア工科大学、およびJPL)は同様にLANLテストベッドに構成されます。 長期インタフェースはSonetからHPPIから/まで来ています(時間に間に合うならATMを使用して)。
Wally also discussed some of the problems related to building a HPPI-SONET gateway:
また、ウォリーはHPPI-Sonetゲートウェイを建設することにおける関連する問題のいくつかについて議論しました:
a) Flow control. The HPPI, by itself, is only readily extensible to 64 km because of the READY-type flow control used in the physical layer. The gateway will need to incorporate larger buffers and independent flow control.
a) フロー制御。 HPPIは物理的な層の中で使用されたREADY-タイプフロー制御のためにそれ自体で容易にだけ64kmに広げることができます。 ゲートウェイは、大きめのバッファと独立しているフロー制御を取り入れる必要があるでしょう。
b) Error-rate expectations. SONET is only specified to have a 1E-10 BER on a per hop basis. This is inadequate for long links. Those in the know say that SONET will be much better but the designer is faced with the poor BER in the SONET spec.
b) 誤り率期待。 Sonetは、ホップ基礎あたりのaに1E10BERを持つために指定されるだけです。 これは長いリンクに不十分です。 内情に詳しいものは、Sonetがはるかに良くなりますが、デザイナーはSonet仕様の貧しいBERに面していると言います。
c) Frame mapping. There are several interesting issues to be considered in finding a good mapping from the HPPI packet to the SONET frame. Some are what SONET STS levels will be available in what time frame, the availability of concatenated service, and the error rate issue.
c) マッピングを縁どってください。 HPPIパケットからSonetフレームに良いマッピングを見つける際に考えられるいくつかのおもしろい問題があります。 何かがレベルが何時利用可能になるどんなSONET STSをフレーム、連結されることの有用性が調整して、誤り率が発行するかということです。
Dan Helman (UCSC) talked about work he has been doing with Darrell Long to examine the interconnection of Internet networks via an ATM B-ISDN network. Since network interfaces and packet processing are the expensive parts of high-speed networks, they believe it doesn't make sense to use the ATM backbone only for transmission; it should be used for switching as well. Therefore gateways (either shared by a subnet or integrated with fast hosts) are needed to encapsulate or convert conventional protocols to ATM format. Gateways will be responsible for caching connections to recently accessed destinations. Since many short-lived low-bandwidth connections as foreseen (e.g., for mail and ftp), routing in the ATM network (to set up connections) should not be complicated - a form of static routing
ダン・ヘルマン(UCSC)は彼が持っているダレルLongを処理することであるATM B-ISDNネットワークを通してインターネット網のインタコネクトを調べるために仕事に関して話しました。 ネットワーク・インターフェースとパケット処理が高速ネットワークの高価な部分であるので、トランスミッションのためだけのATMバックボーンを使用に理解できないと信じています。 それは、また、切り替わるのに使用されるべきです。 したがって、ゲートウェイ(サブネットによって共有されるか、または速いホストと統合される)が、従来のプロトコルをATM形式にカプセル化するか、または変換するのが必要です。 ゲートウェイは最近アクセスされた目的地に接続をキャッシュするのに原因となるようになるでしょう。 見通しにされる(例えば、メールとftpのための)としての多くの短命な低バンド幅接続以来、ATMネットワーク(接続をセットアップする)におけるルーティングは複雑であるべきではありません--aはスタティックルーティングを形成します。
Partridge [Page 7] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[7ページ]RFC1152IRSGワークショップレポート1990年4月
should be adequate. Connection performance can be monitored by the gateways. Connections are reestablished if unacceptable. All decision making can be done by gateways and route servers at low packet rates, rather than the high aggregate rate of the ATM network. One complicated issue to be addressed is how to transparently introduce an ATM backbone alongside the existing Internet.
適切であるべきです。 ゲートウェイは接続性能をモニターできます。 容認できないなら、コネクションズは回復します。 ゲートウェイとルートサーバはATMネットワークの高い集合レートよりむしろ低パケット速度ですべての意志決定ができます。 扱われる複雑な1冊は既存のインターネットと並んでどのように透過的にATMバックボーンを導入するかということです。
Session 5: Distributed Systems (David Farber, Chair)
セッション5: 分散システム(デヴィッド・ファーバー、議長)
Craig Partridge (BBN Systems and Technologies) started this session by arguing that classic RPC does not scale well to gigabit-speed networks. The gist of his argument was that machines are getting faster and faster, while the round-trip delay of networks is staying relatively constant because we cannot send faster than the speed of light. As a result, the effective cost of doing a simple RPC, measured in instruction cycles spent waiting at the sending machine, will become extremely high (millions of instruction cycles spent waiting for the reply to an RPC). Furthermore, the methods currently used to improve RPC performance, such as futures and parallel RPC, do not adequately solve this problem. Future requests will have to be made much much earlier if they are to complete by the time they are needed. Parallel RPC allows multiple threads, but doesn't solve the fact that each individual sequence of RPCs still takes a very long time.
古典的なRPCがギガビット速度ネットワークによく比例しないと主張することによって、クレイグPartridge(BBN SystemsとTechnologies)はこのセッションのときに始まりました。 彼の議論の要点はマシンがどんどん速くなっているということでした、私たちが光速より速く発信できないのでネットワークの往復の遅れが比較的一定の状態で残っている間。 その結果、送付マシンで待ちながら費やされた指示サイクルで測定された簡単なRPCをする有効原価は非常に高く(RPCに回答を待ちながら費やされた何百万指示サイクルも)なるでしょう。 その上、先物取引や平行なRPCのように、現在RPC性能を向上させるのに使用されているメソッドは適切にこの問題を解決しません。 それらであるなら未来の要求をはるかに早くたくさんしなければならないでしょう。必要であることで、それらが終了することになっている時までに終了することになっています。 平行なRPCは複数のスレッドを許容しますが、RPCsのそれぞれの個々の系列がまだ非常に長い時かかっているという事実を解決しません。
Craig went on to suggest that there are at least two possible ways out of the problem. One approach is to try to do a lot of caching (to waste bandwidth to keep the CPU fed). A limitation of this approach is that at some point the cache becomes so big that you have to keep in consistent with other systems' caches, and you suddenly find yourself doing synchronization RPCs to avoid doing normal RPCs (oops!). A more promising approach is to try to consolidate RPCs being sent to the same machine into larger operations which can be sent as a single transaction, run on the remote machine, and the result returned. (Craig noted that he is pursuing this approach in his doctoral dissertation at Harvard).
クレイグは、少なくとも2つの可能な方法が問題から脱しているのを示し続けました。 1つのアプローチは多くのキャッシュ(CPUを与え続けるのに帯域幅を浪費する)をしようとすることです。 このアプローチの制限は何らかのポイントでは、キャッシュがとても大きくなるのであなたが他のシステムのキャッシュと一致するところに保たなければならなくて、あなたが正常なRPCsをするのを避けるために気付くと突然同期RPCsをしているという(おっと!)ことです。 より有望なアプローチがリモートマシンに実行された単一取引として送ることができるより大きい操作に同じマシンに送られるRPCsを統合しようとしたことであり、結果は戻りました。 (クレイグは、彼がハーバードの博士論文でこのアプローチを追求していることに注意しました。)
Ken Schroder (BBN Systems and Technologies) gave a talk on the challenges of combining gigabit networks with wide-area heterogeneous distributed operating systems. Ken feels the key goals of wide area distributed systems will be to support large volume data transfers between users of conferencing and similar applications, and to deliver information to a large number of end users sharing services such as satellite image databases. These distributed systems will be motivated by the natural distribution of users, of information and of expensive special purpose computer resources.
ケン・シュローダー(BBN SystemsとTechnologies)は広い領域の異種の分配されたオペレーティングシステムによる合併しているギガビットネットワークの挑戦のときに講演しました。ケンは、広い領域分散システムの主要な目標が大きいボリュームが会議と同様のアプリケーションのユーザの間のデータ転送であるとサポートして、衛星画像データベースなどのサービスを共有している多くのエンドユーザに情報を配布することであると感じます。 これらの分散システムはユーザ、情報、および高価な専用計算機リソースの自然分布で動機づけられるでしょう。
Ken pointed to three of the key problems that must be addressed at
ケンはそれを扱わなければならない3つの主要な問題を示しました。
Partridge [Page 8] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[8ページ]RFC1152IRSGワークショップレポート1990年4月
the system level in these environments: how to provide high utilization; how to manage consistency and synchronization in the presence of concurrency and non-determinism; and how to construct scalable system and application services. Utilization is key only to high performance applications, where current systems would be limited by the cost of factors such as repeatedly copying messages, converting data representations and switching between application and operating system. Concurrency can be used improve performance, but is also likely to occur in many programs inadvertently because of distribution. Techniques are required both to exploit concurrency when it is needed, and to limit it when non-determinism can lead to incorrect results. Extensive research on ensuring consistency and resolving resource conflicts has been done in the database area, however distributed scheduling and the need for high availability despite partial system failures introduce special problems that require additional research. Service scalability will be required to support customer needs as the size of the user community grow. It will require attention both ensuring that components do not break when they are subdivided across additional processors to support a larger user population, and to ensure that performance does to each user can be affordably maintained as new users are added.
これらの環境におけるシステムレベル: どう高使用率を提供するか。 並行性と非決定論があるときどう一貫性と同期を管理するか。 そして、スケーラブルなシステムとアプリケーション・サービスを構成する方法。 利用は高性能アプリケーションだけに主要です、データ表現を変換して、アプリケーションとオペレーティングシステムを切り換えて。(そこでは、現在のシステムが繰り返してメッセージをコピーなどなどの要素の費用によって制限されるでしょう)。 並行性を使用できます。また、分配で多くのプログラムにおそらくうっかり起こることになっているのを除いて、性能を向上させてください。 非決定論が不正確な結果につながることができるとき、テクニックが、それが必要であるときに、ともに並行性を利用して、それを制限するのに必要です。 データベース部門で一貫性があることを保証して、リソース闘争を解決する大規模な研究をして、しかしながら、分配されたスケジューリングと部分的なシステム障害にもかかわらず、高い有用性の必要性は追加研究を必要とする特別な問題を紹介します。 サービススケーラビリティがユーザーコミュニティのサイズとしての顧客の要望が育てるサポートに必要でしょう。 より大きいユーザ人口をサポートして、新しいユーザが加えられるとき手頃に各ユーザに性能を維持できるのを保証するのがそれらが追加プロセッサの向こう側に細分されるとき、コンポーネントが壊れないのをともに確実にする注意を必要とするでしょう。
In a bold presentation, Dave Cheriton (Stanford) made a sweeping argument that we are making a false dichotomy between distributed operating systems and networks. In a gigabit world, he argued, the major resource in the system is the network, and in a normal operating system we would expect such a critical resource to be managed by the operating system. Or, put another way, the gigabit network distributed operating system should manage the network. Cheriton went on to say that if a gigabit distributed operating system is managing the network, then it is perfectly reasonable to make the network very dumb (but fast) and put the system intelligence in the operating systems on the hosts that form the distributed system.
大胆なプレゼンテーションでは、デーヴCheriton(スタンフォード)は私たちが分配されたオペレーティングシステムとネットワークの間で誤った二分をしているという全面的な主張をしました。 ギガビット世界では、彼が主張しました、そして、システムの主要なリソースがネットワークです、そして、正常なオペレーティングシステムで、私たちがそのような重要な資源がオペレーティングシステムで管理されると予想するでしょう。 または、ギガビットのネットワークの分配されたオペレーティングシステムは別の道に置かれて、ネットワークを経営するべきです。 Cheritonは、ギガビットの分配されたオペレーティングシステムがネットワークを経営することであるならネットワークを非常に馬鹿に(速い)して、分散システムを形成するホストでシステム知性をオペレーティングシステムに入れるのが完全に妥当であると言い続けました。
In another talk on interprocess communication, Jonathan Smith (UPenn) again raised the problem of network delay limiting RPC performance. In contrast to Partridge's earlier talk, Smith argued that the appropriate approach is anticipation or caching. He justified his argument with a simple cost example. If a system is doing a page fetch between two systems which have a five millisecond round-trip network delay between them, the cost of fetching n pages is:
プロセス間通信に関する別の話では、ジョナサン・スミス(UPenn)は再び、RPC性能を制限するというネットワーク遅延の問題を提起しました。 Partridgeの以前の話と対照して、スミスは、適切なアプローチが予期かキャッシュであると主張しました。 彼は簡単な費用の例との議論を正当化しました。 システムが2台のシステムの間5ミリセカンドの往復のネットワーク遅延がある間のページフェッチをしているなら、魅惑的なnページの費用は以下の通りです。
5 msec + (n-1) * 32 usec
5 msec+(n-1)*32usec
Thus the cost of fetching an additional page is only 32 usec, but underfetching and having to make another request to get a page you missed costs 5000 usec. Based on these arguments, Smith suggested
したがって、追加ページをとって来る費用は32usecにすぎませんが、underfetchingして、あなたが逃した1ページを得るという別の要求をしなければならないのは5000usecかかります。 これらの議論に基づいて、スミスは示しました。
Partridge [Page 9] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[9ページ]RFC1152IRSGワークショップレポート1990年4月
that we re-examine work in virtual memory to see if there are comfortable ways to support distributed virtual memory with anticipation.
私たちは、予期で分配された仮想記憶をサポートする快適な方法があるかどうか確認するために仮想記憶における仕事を再検討します。
In the third talk on RPC in the session, Tommy Joseph (Olivetti), for reasons similar to those of Partridge and Smith, argued that we have to get rid of RPC and give programmers alternative programming paradigms. He sketched out ideas for asynchronous paradigms using causal consistency, in which systems ensure that operations happen in the proper order, without synchronizing through a single system.
Partridgeとスミスのものと同様の理由で、セッションにおけるRPCに関する3番目の話では、トミー・ジョゼフ(オリベッティ)は、私たちがRPCを取り除かせて、代替のプログラミングパラダイムをプログラマに与えなければならないと主張しました。彼はシステムが操作が適切なオーダーで起こるのを確実にする原因の一貫性を使用することで非同期なパラダイムのための考えについて概略を述べました、ただ一つのシステムを通して連動しないで。
Session 6: Hosts and Host Interfaces (Gary Delp, Chair)
セッション6: ホストとホスト・インターフェース(ゲーリー・デルプ、議長)
Gary Delp (IBM Research) discussed several issues involved in the increase in speed of network attachment to hosts of increasing performance. These issues included:
ゲーリー・デルプ(IBM Research)は増加する性能のホストへのネットワーク愛着の速度の増加にかかわるいくつかの問題について議論しました。 これらの問題は:だった
- Media Access - There are aspects of media access that are best handled by dedicated silicon, but there are also aspects that are best left to a general-purpose processor.
- メディアAccess--専用シリコンで最も良い扱うメディアアクセスの局面がありますが、メインプロセッサに最も良い残す局面もあります。
- Compression - Some forms of compression/expansion may belong on the network interface; most will be application-specific.
- 圧縮--いくつかの形式の圧縮/拡張はネットワーク・インターフェースで属するかもしれません。 大部分はアプリケーション特有になるでしょう。
- Forward Error Correction - The predicted major packet loss mode is packet drops due to internal network congestion, rather than bit errors, so forward error correction internal to a packet may not be useful. On the other hand, the latency cost of not being able to recover from bit errors is very high. Some proposals were discussed which suggest that FEC among packet groups, with dedicated hardware support, is the way to go.
- 前進のError Correction--内部のネットワークの混雑のために予測された主要なパケット損失モードが誤りに噛み付くよりむしろパケット滴であるので、パケットへの内部の前進型誤信号訂正は役に立たないかもしれません。 他方では、噛み付いている誤りから克服できない潜在費用は非常に高いです。 いくつかの提案について議論しました(パケットグループのFECが行くひたむきなハードウェアサポートがある方法であると示唆します)。
- Encryption/Decryption - This is a computationally intensive task. Most agree that if it is done with all traffic, some form of hardware support is helpful. Where does it fit in the protocol stack?
- 暗号化/復号化--これは計算上徹底的なタスクです。 大部分は、すべてのトラフィックでそれをするなら、何らかの形式のハードウェアサポートに役立っているのに同意します。 どこに、それはプロトコル・スタックをうまくはめ込みますか?
- Application Memory Mapping - How much of the host memory structure should be exposed to the network interface? Virtual memory and paging complicate this issue considerably.
- アプリケーションMemory Mapping--ホストメモリ構造のどのくらいがネットワーク・インターフェースに暴露されるべきですか? 仮想記憶とページングはこの問題をかなり複雑にします。
- Communication with Other Channel Controllers - Opinions were expressed that ranged from absolutely passive network interfaces to interfaces that run major portions of the operating system and bus arbitration codes.
- Other Channel Controllersとのコミュニケーション--絶対に受け身のネットワーク・インターフェースからオペレーティングシステムの主要部を実行するインタフェースとバス調停コードまで及んだ意見は述べられました。
- Blocking/Segmentation - The consensus is that B/S should
- ブロッキング/分割--コンセンサスはB/Sがそうするべきであるということです。
Partridge [Page 10] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[10ページ]RFC1152IRSGワークショップレポート1990年4月
occur wherever the transport layer is processed.
どこでも、トランスポート層が処理されるところに起こってください。
- Routing - This is related to communications with other controllers. A routing-capable interface can reduce the bus requirements by a factor of two.
- ルート設定--これは他のコントローラとのコミュニケーションに関連します。 ルーティングできるインタフェースは2の要素でバス要件を減らすことができます。
- Intelligent participation in the host structure as a gateway, router, or bridge.
- ゲートウェイ、ルータ、またはブリッジとしてのホスト構造への知的な参加。
- Presentation Layer issues - All of the other overheads can be completely overshadowed by this issue if it is not solved well and integrated into the overall host architecture. This points out the need for some standardization of representation (IEEE floating point, etc.)
- プレゼンテーションLayer問題--それが総合司会構造とよく解決されていて、統合されないなら、この問題は他のオーバーヘッドのすべてを完全に曇らせることができます。 これは表現の何らかの標準化の必要性を指摘します。(IEEE、浮動小数点など)
Eric Cooper (CMU) summarized some initial experience with Nectar, a high-speed fiber-optic LAN that has been built at Carnegie Mellon. Nectar consists of an arbitrary mesh of crossbar switches connected by means of 100 Mbps fiber-optic links. Hosts are connected to crossbar switches via communication processor boards called CABs. The CAB presents a memory-mapped interface to user processes and off-loads all protocol processing from the host.
エリック・クーパー(米カーネギーメロン大学)はNectarの何らかの初体験、カーネギー・メロンで築き上げられた高速光ファイバーLANをまとめました。 蜜は100個のMbps光ファイバーリンクによる接続されたクロスバースイッチの任意のメッシュから成ります。 ホストはCABsと呼ばれる通信プロセッサ板を通してクロスバースイッチに接続されます。 CABはメモリで写像しているインタフェースをユーザ・プロセスに提示して、ホストからすべてのプロトコル処理を積み下ろします。
Preliminary performance figures show that latency is currently limited by the number of VME operations required by the host-to-CAB shared memory interface in the course of sending and receiving a message. The bottleneck in throughput is the speed of the VME interface: although processes running on the CABs can communicate over Nectar at 70 Mbps, processes on the hosts are limited to approximately 25 Mbps.
予備の性能の数字は、潜在が現在メッセージを送って、受け取ることの間にホストからCABへの共有メモリインタフェースによって必要とされたVME操作の数によって制限されるのを示します。 スループットのボトルネックはVMEインタフェースの速度です: CABsの上で作業する過程は70MbpsのNectarの上で交信できますが、ホストの過程はおよそ25Mbpsに制限されます。
Jeff Mogul (DEC Western Research Lab) made these observations: Although off-board protocol processors have been a popular means to connect a CPU to a network, they will be less useful in the future. In the hypothetical workstation of the late 1990s, with a 1000-MIPS CPU and a Gbps LAN, an off-board protocol processor will be of no use. The bottleneck will not be the computation required to implement the protocol, but the cost of moving the packet data into the CPU's cache and the cost of notifying the user process that the data is available. It will take far longer (hundreds of instruction cycles) to perform just the first cache miss (required to get the packet into the cache) than to perform all of the instructions necessary to implement IP and TCP (perhaps a hundred instructions).
ジェフ・ムガール人(12月の西洋のResearch Lab)はこれらの観測をしました: 車外プロトコルプロセッサはCPUをネットワークに接続するポピュラーな手段ですが、それらは将来、それほど役に立ちません。 1990年代後半の仮定しているワークステーションでは、1000MIPSのCPUとGbps LANで、車外プロトコルプロセッサは無駄になるでしょう。 ボトルネックは、プロトコルを実行するのに必要である計算ではなく、パケットデータをCPUのキャッシュに動かす費用とデータが利用可能であるようにユーザ・プロセスに通知する費用になるでしょう。 それは、まさしく最初のキャッシュミス(パケットをキャッシュに得るのが必要である)を実行するにははるかに長い間(何百指示サイクルも)、IPとTCP(恐らく100の指示)を実行するのに必要な指示のすべてを実行するよりかかるでしょう。
A high-speed network interface for a reasonably-priced system must be designed with this cost structure in mind; it should also eliminate as many CPU interrupts as possible, since interrupts are also very expensive. It makes more sense to let a user process busy-wait on a
この原価構造で合理的に値を付けられたシステムのための高速ネットワーク・インターフェースを念頭に設計しなければなりません。 また、また、中断も非常に高価であるので、それはできるだけ多くのCPU割込みを排除するべきです。 それはユーザ・プロセスをさせるより多くの意味をaにおける待つように忙しいします。
Partridge [Page 11] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[11ページ]RFC1152IRSGワークショップレポート1990年4月
network-interface flag register than to suspend it and then take an interrupt; the normal CPU scheduling mechanism is more efficient than interrupts if the network interactions are rapid.
ネットワーク・インターフェース旗はそれを中断させて、次に、中断を取るより登録されます。 ネットワーク相互作用が急速であるなら、正常なCPUスケジューリングメカニズムは中断より効率的です。
David Greaves (Olivetti Research Ltd.) briefly described the need for a total functionality interface architecture that would allow the complete elimination of communication interrupts. He described the Cambridge high-speed ring as an ATM cell-like interconnect that currently runs at 500-1000 MBaud, and claims that ATM at that speed is a done deal. Dave Tennenhouse also commented that ATM at high speeds with parallel processors is not the difficult thing that several others have been claiming.
デヴィッド・グリーブス(オリベッティResearch Ltd.)は簡潔にコミュニケーション・インタラプトの完全な除去を許容する総機能性インタフェース構造の必要性について説明しました。 彼は現在500-1000 MBaudを走るATMのセルのような内部連絡、およびその速度におけるATMが完了した取引であるというクレームとしてケンブリッジの高速リングを記述しました。 また、デーヴTennenhouseは、パラレル・プロセッサがある高速におけるATMが数人の他のものが要求している難しいことでないと論評しました。
Bob Beach (Ultra Technologies) started his talk with the observation that networking could be really fast if only we could just get rid of the hosts. He then supported his argument with illustrations of 80-MByte/second transfers to frame buffers from Crays that drop to half that speed when the transfer is host-to-host. Using null network layers and proprietary MAC layers, the Ultra Net system can communicate application-to-application with ISO TP4 as the transport layer at impressive rates of speed. The key to high-speed host interconnects has been found to be both large packets and large (on the order of one megabyte) channel transfer requests. Direct DMA interfaces exhibit much smaller transfer latencies.
ボブビーチ(超Technologies)は私たちだけがただホストを取り除くことができるならネットワークが本当に速いかもしれないという観測との彼の話を始めました。 そして、彼は転送がホストからホストであるときにその速度の半分に落ちるCraysからのフレームバッファに80-MByte/第2転送のイラストとの議論を支持しました。 ヌルネットワーク層と独占MAC層を使用して、Ultraネットシステムはトランスポート層として速度の印象的なレートでISO TP4とのアプリケーションからアプリケーションを伝えることができます。 高速ホスト内部連絡のキーは大きいパケットと大きい(1メガバイトの注文での)チャンネル転送要求の両方であることがわかりました。 ダイレクトDMAインタフェースははるかにわずかな転送潜在を示します。
Derek McAuley (University Cambridge Computer Laboratory) described work of the Fairisle project which is producing an ATM network based on fast packet switches. A RISC processor (12 MIPS) is used in the host interface to do segmentation/reassembly/demultiplexing. Line rates of up to 150 Mbps are possible even with this modest processor. Derek has promised that performance and requirement results from this system will be published in the spring.
デリック・マコーリー(大学ケンブリッジコンピュータ研究所)は速いパケット交換機に基づくATMネットワークを作成しているFairisleプロジェクトの仕事について説明しました。 RISCプロセッサ(12MIPS)は、分割/再アセンブリ/逆多重化をするのにホスト・インターフェースで使用されます。 最大150Mbpsのライン料率はこの穏やかなプロセッサがあっても可能です。 デリックは、このシステムからの性能と要件結果が春に発表されると約束しました。
Bryan Lyles (XEROX PARC) volunteered to give an abbreviated talk in exchange for discussion rights. He reported that Xerox PARC is interested in ATM technology and wants to install an ATM LAN at the earliest possible opportunity. Uses will include such applications as video where guaranteed quality of service (QOS) is required. ATM technology and the desire for guaranteed QOS places a number of new constraints on the host interface. In particular, they believe that they will be forced towards rate-based congestion control. Because of implementation issues and burst control in the ATM switches, the senders will be forced to do rate based control on a cell-by-cell basis.
ブライアン・ライルス(XEROX PARC)は、議論権利と引き換えに簡略化された話を与えるのを買って出ました。 彼は、ゼロックスPARCがATM技術に興味を持っていて、できるだけ早くATM LANをインストールしたがっていると報告しました。 サービスの質(QOS)が保証されるところでビデオが必要であるように用途はそのようなアプリケーションを含むでしょう。 保証されたQOSに関するATM技術と願望はホスト・インターフェースにおける多くの新しい規制を置きます。 特に、彼らは、それらがレートベースの輻輳制御に向かって強制されると信じています。 ATMスイッチでの導入問題と炸裂コントロールのために、送付者はセルごとのベースでやむを得ずベースのコントロールを評定するでしょう。
Don Tolmie (Los Alamos National Laboratory) described the High- Performance Parallel Interface (HPPI) of ANSI task group X3T9.3. The HPPI is a standardized basic building block for implementing, or
ドントルミー(ロスアラモス国立研究所)はANSI任務群X3T9.3のHighパフォーマンスParallel Interface(HPPI)について説明しました。 またはHPPIが実行のための標準化された基本的なブロックである。
Partridge [Page 12] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[12ページ]RFC1152IRSGワークショップレポート1990年4月
connecting to, networks at the Gbps speeds, be they ring, hub, cross-bar, or long-haul based. The HPPI physical layer operates at 800 or 1600 Mbps over 25-meter twisted-pair copper cables in a point-to-point configuration. The HPPI physical layer has almost completed the standards process, and a companion HPPI data framing standard is under way, and a Fiber Channel standard at comparable speeds is also being developed. Major companies have completed, or are working on, HPPI interfaces for supercomputers, high-end workstations, fiber-optic extenders, and networking components.
接続する、Gbps速度で、それらがリング、ハブ、横木、または長期に基づいたなら、ネットワークでつなぎます。 HPPIの物理的な層は25メーターのツイストペア銅のケーブルの上の800か1600Mbpsで二地点間構成で作動します。 HPPIの物理的な層は標準化過程をほとんど完成しました、そして、仲間HPPIデータ縁どり規格は進行中です、そして、また、匹敵する速度におけるFiber Channel規格は開発されています。 会社が完成させるか、または働いているメージャー、HPPIはスーパーコンピュータ、上位ワークステーション、光ファイバー増量剤、およびネットワークの構成要素のために連結します。
The discussion at the end of the session covered a range of topics. The appropriateness of outboard protocol processing was questioned. Several people agreed that outboarding on a Cray (or similar cost/performance) machines makes economic sense. Van Jacobson contended that for workstations, a simple memory-mapped network interface that provides packets visible to the host processor may well be the ideal solution.
セッションの終わりの議論はさまざまな話題をカバーしました。 船外のプロトコル処理の適切さは質問されました。 数人は、クレイ(または、同様の費用/性能)マシンの上で外到達するのが経済意味になるのに同意しました。 ヴァン・ジェーコブソンは、ホスト処理装置に目に見えるパケットを提供する簡単なメモリで写像しているネットワーク・インターフェースがたぶんワークステーションの、理想的な解決であるだろうと主張しました。
Bryan Lyles reiterated several of his earlier points, asserting that when we talk about host interfaces and how to build them we should remember that we are really talking about process-to-process communication, not CPU-to-CPU communication. Not all processes run on the central CPU, e.g., graphics processors and multimedia. Outboard protocol processing may be a much better choice for these architectures.
ブライアン・ライルスは彼の以前のポイントの数個を繰り返しました、ホスト・インターフェースとそれらを建てるために、本当にCPUからCPUへのコミュニケーションではなく、プロセス間通信に関して話しているのをどう覚えているべきであるかに関して私たちが話すとき、それについて断言して。 すべての過程が中央のCPUで動くというわけではなくて、例えば、グラフィックスは、プロセッサとマルチメディアです。 船外のプロトコル処理はこれらの構造のためのはるかに良い選択であるかもしれません。
This is especially true when we consider that memory/bus bandwidth is often a bottleneck. When our systems run out of bandwidth, we are forced towards a NUMA model and multiple buses to localize memory traffic.
私たちが、メモリ/バス帯域幅がしばしばボトルネックであると考えるとき、これは特に本当です。 私たちのシステムが帯域幅を使い果たすとき、私たちはNUMAモデルとメモリ交通を局部にとどめる複数のバスに向かって強制されます。
Because of QOS issues, the receiver must be able to tell the sender how fast it can send. Throwing away cells (packets) will not work because unwanted packets will still clog the receiver's switch interface, host interface, and requires processing to throw away.
QOS問題のために、受信機は、それがどれくらい速く発信できるかを送付者に言うことができなければなりません。 セル(パケット)を捨てるのは、それでも、求められていないパケットが受信機のスイッチインタフェース、ホスト・インターフェースを妨げるので働かないで、遠くに投げるために処理するのを必要とします。
Session 7: Congestion Control (Scott Shenker, Chair)
セッション7: 輻輳制御(スコットShenker、議長)
The congestion control session had six talks. The first two talks were rather general, discussing new approaches and old myths. The other four talks discussed specific results on various aspects of packet (or cell) dropping: how to avoid drops, how to mitigate their impact on certain applications, a calculation of the end-to-end throughput in the presence of drops, and how rate-based flow control can reduce buffer usage. Thumbnail sketches of the talks follow.
輻輳制御セッションには、6つの会談がありました。 新しいアプローチと古い神話について議論して、最初の2つの会談がかなり一般的でした。 他の4つの会談がパケット(または、セル)低下の種々相の特定の結果について議論しました: どう低下を避けるか、そして、低下があるとき終わりから終わりへのスループットの計算と、レートベースのフロー制御がどうあるアプリケーションへのそれらの影響を緩和するか、そして、どう減少できるかが用法をバッファリングします。 会談の寸描は続きます。
In the first of the general talks, Scott Shenker (XEROX PARC) discussed how ideas from economics can be applied to congestion
一般的な会談の1番目では、スコットShenker(XEROX PARC)はどう経済学からの考えを混雑に適用できるかについて議論しました。
Partridge [Page 13] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[13ページ]RFC1152IRSGワークショップレポート1990年4月
control. Using economics, one can articulate questions about the goals of congestion control, the minimal feedback necessary to achieve those goals, and the incentive structure of congestion control. Raj Jain (DEC) then discussed eight myths related to congestion control in high-speed networks. Among other points, Raj argued that (1) congestion problems will not become less important when memory, processors, and links become very fast and cheap, (2) window flow control is required along with rate flow control, and (3) source-based controls are required along with router-based control.
制御してください。 経済学を使用して、人は輻輳制御(それらの目標、および輻輳制御の刺激的な構造を達成するのに必要な最小量のフィードバック)の目標に関する質問を明確に話すことができます。 そして、主権ジャイナ教の(12月)は高速ネットワークで輻輳制御に関連する8つの神話について議論しました。 他のポイントの中では、Rajは、(1) メモリ、プロセッサ、およびリンクが非常に速く安くなる場合混雑問題が、より重要でなくならないで、(2) 窓のフロー制御がレートフロー制御と共に必要であり、(3) ソースベースのコントロールがルータベースのコントロールと共に必要であると主張しました。
In the first of the more specific talks, Isidro Castineyra (BBN Communications Corporation) presented a back-of-the-envelope calculation on the effect of cell drops on end-to-end throughput. While at extremely low drop rates the retransmission strategies of go-back-n and selective retransmission produced similar end-to-end throughput, at higher drop rates selective retransmission achieved much higher throughput. Next, Tony DeSimone (AT&T) told us why high-speed networks are not just fast low-speed networks. If the buffer/window ratio is fixed, the drop rate decreases as the network speed increases. Also, data was presented which showed that adaptive rate control can greatly decrease buffer utilization. Jamal Golestani (Bellcore) then presented his work on stop-and-go queueing. This is a simple stalling algorithm implemented at the switches which guarantees no dropped packets and greatly reduces delay jitter. The algorithm requires prior bandwidth reservation and some flow control on sources, and is compatible with basic FIFO queues. In the last talk, Victor Frost (University of Kansas) discussed the impact of different dropping policies on the perceived quality of a voice connection. When the source marks the drop priority of cells and the switch drops low priority cells first, the perceived quality of the connection is much higher than when cells are dropped randomly.
より特定の会談の1番目では、イシドロCastineyra(BBN Communications社)はセル滴の効果における封筒の計算に終わらせる終わりのスループットを提示しました。 nを支持しに行っていて選択している「再-トランスミッション」の「再-トランスミッション」戦略は非常に低い低下率で終わりから終わりへの同様のスループットを作り出しましたが、より高い低下率で、選択している「再-トランスミッション」ははるかに高いスループットを達成しました。 次に、トニーDeSimone(AT&T)は、高速ネットワークがなぜ速い低速ネットワークであるだけではないかを私たちに言いました。 バッファ/窓の比が固定されているなら、ネットワーク速度が上がるのに従って、低下率は減少します。 また、適応型の速度制御がバッファ利用を大いに減少させることができるのを示したデータが提示されました。 そして、ジャマルGolestani(Bellcore)は止まっている、行っている待ち行列に対する彼の仕事を提示しました。 これはそれの保証ノーがパケットを落として、遅れジターを大いに減少させるスイッチで実行された簡単なエンストアルゴリズムです。 アルゴリズムは、ソースの上で帯域幅の予約と何らかのフロー制御を優先的に必要として、基本的な先入れ先出し待ち行列と互換性があります。 最後の話では、ビクタのフロスト(カンザス大学)は声の接続の知覚された品質に関する異なった低下方針の影響について議論しました。 ソースがセルの低下優先権をマークして、スイッチが最初に低い優先権セルを落とすとき、接続の知覚された品質はセルが手当たりしだいに落とされる時よりはるかに高いです。
Session 8: Switch Architectures (Dave Sincoskie, Chair)
セッション8: スイッチ構造(デーヴSincoskie、議長)
Dave Mills (University of Delaware) presented work on a project now under way at the University of Delaware to study architectures and protocols for a high-speed network and packet switch capable of operation to the gigabit regime over distances spanning the country. It is intended for applications involving very large, very fast, very bursty traffic typical of supercomputing, remote sensing, and visualizing applications. The network is assumed to be composed of fiber trunks, while the switch architecture is based on a VLSI baseband crossbar design which can be configured for speeds from 25 Mbps to 1 Gbps.
デーヴ・ミルズ(デラウエア大学)は、操作が距離の上ギガビット政権にできる高速ネットワークとパケット交換機のために構造とプロトコルを研究するために国にかかりながら、現在デラウエア大学の進行中のプロジェクトに仕事を示しました。 それは非常に大きく、非常に速く、bursty交通非常に典型的にかかわるアプリケーションのためにスーパー計算と、遠隔探査と、アプリケーションを想像するのについて意図します。 ファイバートランクスでネットワークが構成されると思われます、スイッチ構造は速度のために25Mbpsから1Gbpsまで構成できるVLSIベースバンド横木デザインに基づいていますが。
Mills' approach involves an externally switched architecture in which the timing and routing of flows between crossbar switches are determined by sequencing tables and counters in high-speed memory
工場のアプローチはクロスバースイッチの間の流れのタイミングとルーティングが高速メモリのテーブルを配列して、カウンタで決定している外部的に切り換えられた構造にかかわります。
Partridge [Page 14] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[14ページ]RFC1152IRSGワークショップレポート1990年4月
local to each crossbar. The switch program is driven by a reservation-TDMA protocol and distributed scheduling algorithm running in a co-located, general-purpose processor. The end-to-end customers are free to use any protocol or data format consistent with the timing of the network. His primary interest in the initial phases of the project is the study of appropriate reservation and scheduling algorithms. He expect these algorithms to have much in common with the PODA algorithm used in the SATNET and WIDEBAND satellite systems and to the algorithms being considered for the Multiple Satellite System (MSS).
各横木に、地方です。 スイッチプログラムは予約-TDMAプロトコルと分配されたスケジューリングアルゴリズムならし運転による共同見つけられた汎用の駆動プロセッサです。 終わりから末端顧客は自由にネットワークのタイミングと一致したどんなプロトコルやデータの形式も使用できます。 プロジェクトの初期位相への彼の主要な関心は適切な予約とスケジューリングアルゴリズムの研究です。Multiple Satellite System(MSS)のために考えられる場合、彼は、SATNETとWIDEBANDサテライト・システムとアルゴリズムに使用されるPODAアルゴリズムと共用してこれらのアルゴリズムには多くがあると予想します。
John Robinson (JR, BBN Systems and Technologies) gave a talk called Beyond the Butterfly, which described work on a design for an ATM cell switch, known as MONET. The talk described strategies for buffering at the input and output interfaces to a switch fabric (crossbar or butterfly). The main idea was that cells should be introduced to the switch fabric in random sequence and to random fabric entry ports to avoid persistent traffic patterns having high cell loss in the switch fabric, where losses arise due to contention at output ports or within the switch fabric (in the case of a butterfly). Next, the relationship of this work to an earlier design for a large-scale parallel processor, the Monarch, was described. In closing, JR offered the claim that this class of switch is realizable in current technology (barely) for operation over SONET OC-48 2.4 Gbps links.
John Robinson(JR、BBN Systems、およびTechnologies)はBeyond Butterflyと呼ばれる話を与えました。Butterflyはモネとして知られているATMセルスイッチのために仕事をデザインに説明しました。 話は入出力のときにスイッチ織物(横木か蝶)にインタフェースをバッファリングするための戦略を説明しました。 本旨はスイッチ織物か、損失が主張のため出力ポートに起こるところかスイッチ織物の中に高い細胞消失を持っているしつこいトラフィック・パターン(蝶の場合における)を避けるためにランダム・シーケンスにおけるスイッチ織物と、そして、無作為の織物通関港にセルを挿入するべきであるということでした。 次に、大規模なパラレル・プロセッサのための以前のデザインに対するこの仕事の関係(Monarch)は説明されました。 最後になりましたが、JRはこのクラスのスイッチがSONET OC-48 2.4の上の操作に、現在の技術で実現可能な(ほとんど)Gbpsリンクであるというクレームを提供しました。
Dave Sincoskie (Bellcore) reported on two topics: recent switch construction at Bellcore, and high-speed processing of ATM cells carrying VC or DG information. Recent switch design has resulted in a switch architecture named SUNSHINE, a Batcher-banyan switch which uses recirculation and multiple output banyans to resolve contention and increase throughput. A paper on this switch will be published at ISS '90, and is available upon request from the author. One of the interesting traffic results from simulations of SUNSHINE shows that per-port output queues of up to 1,000 cells (packets) may be necessary for bursty traffic patterns. Also, Bill Marcus (at Bellcore) has recently produced Batcher-banyan (32x32) chips which test up to 170Mb/sec per port.
デーヴSincoskie(Bellcore)は2つの話題に関して報告しました: Bellcoreでの最近のスイッチ建築、およびVCを運ぶATMセルかDG情報の高速処理。 最近のスイッチデザインはサンシャインというスイッチ構造をもたらしました、主張を決議して、スループットを増加させるのに再循環と複数の出力バニヤンを使用するBatcher-バニヤンスイッチ。 このスイッチに関する紙は、ISS90年に発行されて、作者からの要求のときに利用可能です。 サンシャインのシミュレーションからのおもしろい交通結果のひとりは、最大1,000のセル(パケット)の1ポートあたりの出力キューがburstyトラフィック・パターンに必要であるかもしれないことを示します。 また、ビル・マーカス(Bellcoreの)は最近、1ポートあたり最大170Mb/秒をテストする(32×32)Batcher-バニヤンチップを作り出しました。
The second point in this talk was that there is little difference in the switching processing of Virtual Circuit (VC) and Datagram (DG) traffic that which has been previously broken into ATM cells at the network edge. The switch needs to do a header translation operation followed by some queueing (not necessarily FIFO). The header translation of the VC and DG cells differs mainly in the memory organization of the address translation tables (dense vs. sparse).
この話における2番目のポイントはVirtual Circuit(VC)の切り換え処理の少しの違いがあるということであり、データグラム(DG)交通はネットワーク縁のATMセルが以前に細かく分けられたそれでした。 スイッチは、何らかの待ち行列(必ず先入れ先出し法であるというわけではない)がヘッダー平行移動をして、続いてする必要があります。 VCとDGセルに関するヘッダー翻訳は主にアドレス変換テーブル(まばらに対して濃い)のメモリ組織において異なります。
The discussion after the presentations seemed to wander off the topic
プレゼンテーションが話題をさまようように思えた後に議論
Partridge [Page 15] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[15ページ]RFC1152IRSGワークショップレポート1990年4月
of switching, back to some of the source-routing vs. network routing issues discussed earlier in the day.
切り換えでは、ソースルーティング対ネットワークルーティングのいくつかにその日のより早く議論した問題を支持してください。
Session 9: Open Mike Night (Craig Partridge, Chair)
セッション9: 開いているマイクNight(クレイグPartridge、議長)
As an experiment, the workshop held an open mike session during the evening of the second day. Participants were invited to speak for up to five minutes on any subject of their choice. Minutes of this session are sketchy because the chair found himself pre-occupied by keeping speakers roughly within their time limits.
実験として、ワークショップは2日目の晩に開いているマイクセッションを開催しました。 関係者が彼らの選択に関するどんな話題の5分まで話すよう誘われました。 いすが気付くと彼らのタイムリミットの中に手荒くスピーカーを保つことによって先取されていたので、このセッションの議事録は不完全です。
Charlie Catlett (NSCA) showed a film of the thunderstorm simulations he discussed earlier.
チャーリー・キャトレット(NSCA)は彼が、より早く議論した雷雨シミュレーションのフィルムを見せました。
Dave Cheriton (Stanford) made a controversial suggestion that perhaps one could manage congestion in the network simply by using a steep price curve, in which sending large amounts of data cost exponentially more than sending small amounts of data (thus leading people only to ask for large bandwidth when they needed it, and having them pay so much, that we can afford to give it to them).
デーヴCheriton(スタンフォード)は恐らく、単に少量のデータを送るよりさらにどの送付の多量のデータ費用に法外な高値カーブを指数関数的に使用するかによって人がネットワークで混雑に対処できるだろうという(その結果、彼らが、いつそれと、いる必要だったかを大きい帯域幅に尋ねるためには唯一の人々があまりにたくさん支払って、私たちにはそれを彼らに与える余裕をあるように導きます)論議を呼んだ提案をしました。
Guru Parulkar (Washington University, St. Louis) argued that the recent discussion on appropriateness of existing protocol and need for new protocols (protocol architecture) for gigabit networking lacks the right focus. The emphasis of the discussion should be on what is the right functionality for gigabit speeds, which is simpler per packet processing, combination of rate and window based flow control, smart retransmission strategy, appropriate partitioning of work among host cpu+os, off board cpu, and custom hardware, and others. It is not surprising that the existing protocols can be modified to include this functionality. By the same token, it is not surprising that new protocols can be designed which take advantage of lessons of existing protocols and also include other features necessary for gigabit speeds.
導師Parulkar(ワシントン大学、セントルイス)は、既存のプロトコルの適切さについての最近の議論とギガビットネットワークのための新しいプロトコル(プロトコル構造)の必要性が正しい焦点を欠いていると主張しました。 議論の強調がギガビット速度のための正しいパケット処理単位で、より簡単な機能性であることにあるべきであり、レートと窓の組み合わせはフロー制御を基礎づけました、賢い「再-トランスミッション」戦略、ホストcpu+OSの中の仕事の適切な仕切り、板のcpu、カスタムハードウェア、および他のもので。 この機能性を含むように既存のプロトコルを変更できるのは驚くべきものではありません。 同様に、既存のプロトコルのレッスンを利用して、またギガビット速度に必要な他の特徴を含んでいる新しいプロトコルが設計される場合があるのは、驚くべきものではありません。
Raj Jain (DEC) suggested we look at new ways to measure protocol performance, suggesting our current metrics are insufficiently informative.
私たちの現在の測定基準が不十分に有益であると示唆して、主権ジャイナ教の(12月)は、私たちがプロトコル性能を測定する新しい方法を見るのを示しました。
Dan Helman (UCSC) asked the group to consider, more carefully, who exactly the users of the network will be. Large consumers? or many small consumers?
ダン・ヘルマン(UCSC)は、ネットワークのユーザがいったいだれになるかより慎重に考えるようにグループに頼みました。 大きい消費者?または、多くの小さい消費者?
Partridge [Page 16] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[16ページ]RFC1152IRSGワークショップレポート1990年4月
Session 10: Miscellaneous Topics (Bob Braden, Chair)
セッション10: 種々雑多な話題(ボブ・ブレーデン、議長)
As its title implies, this session covered a variety of different topics relating to high-speed networking.
タイトルが含意するように、このセッションは高速ネットワークに関連するさまざまな異なった話題をカバーしました。
Jim Kurose (University of Massachussetts) described his studies of scheduling and discard policies for real-time (constrained delay) traffic. He showed that by enforcing local deadlines at switches along the path, it is possible to significantly reduce overall loss for such traffic. Since his results depend upon the traffic model assumptions, he ended with a plea for work on traffic models, stating that Poisson models can sometimes lead to results that are wrong by many orders of magnitude.
ジム黒瀬(Massachussettsの大学)は、彼のスケジューリングの研究について説明して、リアルタイム(遅れを抑制する)の交通のための方針を捨てます。 彼は、経路に沿ったスイッチで地方の締め切りを実施することによって、そのような交通のための総合損失をかなり抑えるのが可能であることを示しました。 以来、彼の結果を交通モデル仮定に依存して、彼は交通モデルへの作業のための請願で終わりました、ポアッソンモデルが時々多くの桁間違った結果につながることができると述べて。
Nachum Shacham (SRI International) discussed the importance of error correction schemes that can recover lost cells, and as an example presented a simple scheme based upon longitudinal parity. He also showed a variant, diagonal parity, which allows a single missing cell to be recreated and its position in the stream determined.
無くなっているセルを回復できるエラー修正計画、例が縦の同等に基づいた簡単な計画を提示したとき、ナッハムShacham(SRIインターナショナル)は重要性について議論しました。 また、彼は異形を見せました、と対角線の同等、どれが、単一のなくなったセルが再作成されるのを許容するか、そして、および流れにおけるその位置は決定しました。
Two talks concerned high-speed LANs. Biswanath Muhkerjee (UC Davis) surveyed the various proposals for fair scheduling on unidirectional bus networks, especially those that are distance insensitive, i.e., that can achieve 100% channel utilization independent of the bus length and data rate. He described in particular his own scheme, which he calls p-i persistant.
2つの会談が高速LANに関係がありました。 Biswanath Muhkerjee(UCデイヴィス)は単方向のバスネットワークで公正なスケジューリングのための様々な提案について調査しました、特に距離神経が鈍いもの、すなわち、それがバスの長さとデータ信号速度の如何にかかわらず100%のチャンネル利用を達成できます。 彼は彼自身の計画について特に説明しました。(彼はそれをp-i persistantと呼びます)。
Howard Salwen (Proteon), speaking in place of Mehdi Massehi of IBM Zurich who was unable to attend, also discussed high-speed LAN technologies. At 100 Mbps, a token ring has a clear advantage, but at 1 Gbps, the speed of light kills 802.6, for example. He briefly described Massehi's reservation-based scheme, CRMA (Cyclic- Reservation Multiple-Access).
また、出席できなかったIBMチューリッヒのメーディMassehiに代わって話して、ハワードSalwen(Proteon)は高速LAN技術について議論しました。 100Mbpsでは、トークンリングは明らかに有利な立場を持っていますが、1Gbpsでは、光速は802.6に、例えば殺されます。 彼は簡潔に、Massehiの予約ベースの計画、CRMA(周期的な予約Multiple-アクセス)について説明しました。
Finally, Yechiam Yemeni (YY, Columbia University) discussed his work on a protocol silicon compiler. In order to exploit the potential parallelism, he is planning to use one processor per connection.
最終的に、Yechiamイエメン人(YY、コロンビア大学)はプロトコルシリコン・コンパイラに対する彼の仕事について議論しました。 潜在的平行関係を利用するために、彼は、1接続あたり1台のプロセッサを使用するのを計画しています。
The session closed with a spirited discussion of about the relative merits of building an experimental network versus simulating it. Proponents of simulation pointed out the high cost of building a prototype and limitation on the solution space imposed by a particular hardware realization. Proponents of building suggested that artificial traffic can never explore the state space of a network as well as real traffic can, and that an experimental prototype is important for validating simulations.
セッションは活発な議論でそれをシミュレートすることに対して実験的なネットワークを造る優劣に関して閉じました。 シミュレーションの提案者は特定のハードウェア実現で課された解決策スペースで原型と制限を組み込む高い費用を指摘しました。 ビルの提案者は人工の交通がネットワークの州のスペースを決して本当の交通がそうすることができるくらい上手に探検できないで、シミュレーションを有効にするのに、実験原型が重要であると示唆しました。
Partridge [Page 17] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[17ページ]RFC1152IRSGワークショップレポート1990年4月
Session 11: Protocol Architectures (Vint Cerf, Chair)
セッション11: プロトコル構造(Vintサーフ、議長)
Nick Maxemchuk (AT&T Bell Labs) summarized the distinctions between circuit switching, virtual circuits, and datagrams. Circuits are good for (nearly) constant rate sources. Circuit switching dedicates resources for the entire period of service. You have to set up the resource allocation before using it. In a 1.7 Gbps network, a 3000- mile diameter consumes 10**7 bytes during the circuit set-up round- trip time, and potentially the same for circuit teardown. Some service requirements (file transfer, facsimile transmission) are far smaller than the wasted 2*10**7 bytes these circuit management delays impose. (Of course, these costs are not as dramatic if the allocated bandwidth is less than the maximum possible.)
ニックMaxemchuk(AT&Tベル研究所)は回線交換と、仮想のサーキットと、データグラムの区別をまとめました。(ほとんど)一定のレートソースに、サーキットは良いです。 回線交換は全体の勤続期間の間のリソースを捧げます。 それを使用する前に、あなたは資源配分をセットアップしなければなりません。 1.7Gbpsネットワーク、3000では、マイル直径はサーキットセットアップの間の円周7バイトの旅行時間の、そして、サーキット分解には、潜在的に同じ10**を消費します。 いくつかのサービス要件(ファイル転送、ファクシミリ伝送)がこれらのサーキット管理遅れが課す無駄な2*10よりはるかにわずかな**7バイトです。 (もちろん、割り当てられた帯域幅が可能な最大より少ないなら、これらのコストは劇的ではありません。)
Virtual circuits allow shared use of bandwidth (multiplexing) when the primary source of traffic is idle (as in Voice Time Assigned Speech Interpolation). The user notifies the network of planned usage.
交通の一次資料が無駄であるときに(Voice Time Assigned Speech Interpolationのように)、仮想のサーキットは帯域幅(マルチプレクシング)の共有された使用を許します。 ユーザは計画された用法についてネットワークに通知します。
Datagrams (DG) are appropriate when there is no prior knowledge of use statistics or usage is far less than the capacity wasted during circuit or virtual circuit set-up. One can adaptively route traffic among equivalent resources.
どんな先の知識もないと(DG)が適切であるデータグラムは統計を使用するか、用法が容量がサーキットの間、むだになったよりはるかに少ないか仮想のサーキットセットアップです。 1つは同等なリソースの中でルート交通を適応型であることができます。
In gigabit ATMs, the high service speed and decreased cell size increases the relative burstiness of service requests. All of these characteristics combine to make DG service very attractive.
ギガビットATMsでは、高いサービス速度と減少しているセルサイズはサービスのリクエストの相対的なburstinessを増加させます。 これらの特性のすべてが結合して、DGサービスを非常に魅力的にします。
Maxemchuk then described a deflection routing notion in which traffic would be broken into units of fixed length and allowed into the network when capacity was available and routed out by any available channel, with preference being given to the channel on the better path. This idea is similar to the hot potato routing of Paul Baran's 1964 packet switching design. With buffering (one buffer), Maxemchuk achieved a theoretical 90% utilization. Large reassembly buffers provide for better throughput.
次に、Maxemchukは交通がユニットの固定長が細かく分けられて、容量が有効であったときに、ネットワークに許容されていて、どんな利用可能なチャンネルによる外にも発送される偏向ルーティング概念について説明しました、より良い経路のチャンネルに優先を与えていて。 この考えは1964年のポール・バランのパケット交換デザインの困難な立場ルーティングと同様です。 (1つのバッファ)をバッファリングするのに、Maxemchukは90%の理論上の利用を達成しました。 大きい再アセンブリバッファは、より良い効率に備えます。
Maxemchuk did not have an answer to the question: how do you make sure empty "slots" are available where needed? This is rather like the problem encountered by D. Davies at the UK National Physical Laboratory in his isarythmic network design in which a finite number of crates are available for data transport throughout the network.
Maxemchukには、質問の答がありませんでした: あなたは、空の「スロット」が必要であるところで利用可能であることをどのように確実にしますか? これはイギリスの国立物理研究所のD.デイヴィースが有限数のかごがネットワーク中でデータ伝送に利用可能である彼のisarythmicネットワークデザインで行きあたった問題に似ています。
Guru Parulkar (Washington University, St. Louis) presented a broad view of an Internet architecture in which some portion of the system would operate at gigabit speeds. In his model, internet, transport, and application protocols would operate end to end. The internet functions would be reflected in gateways and in the host/net
導師Parulkar(ワシントン大学、セントルイス)はシステムの何らかの一部がギガビット速度で作動するインターネット構造の広い視点を提示しました。 彼のモデルに、プロトコルが操作するインターネット、輸送、およびアプリケーションは、終わるために終わります。 インターネット機能はゲートウェイとホスト/ネットに反映されるでしょう。
Partridge [Page 18] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[18ページ]RFC1152IRSGワークショップレポート1990年4月
interface, as they are in the current Internet. However, the internet would support a new type of service called a congram which aims at combining strengths of both soft connection and datagram.
彼らが現在のインターネットにいるとき、連結してください。 しかしながら、インターネットは優しい接続とデータグラムの両方の強さを結合するのを目的とするcongramと呼ばれる新しいタイプのサービスを支持するでしょう。
In this architecture, a variable grade of service would be provided. Users could request congrams (UCON) or the system could set them up internally (Picons) to avoid end-to-end setup latency. The various grades of service could be requested, conceptually, by asserting various required (desired) levels of error control, throughput, delay, interarrival jitter, and so on. Gateways based on ATM switches, for example, would use packet processors at entry/exit to do internet specific per packet processing, which may include fragmentation and reassembly of packets (into and out of ATM cells).
この構造に、可変サービスのグレードを提供するでしょう。 ユーザは、congrams(UCON)かシステムが終わりから終わりへのセットアップ潜在を避けるために内部的(ピコン)に彼らをセットアップするかもしれないよう要求できました。 様々な必要な(必要な)レベルの誤り制御、スループット、遅れ、interarrivalジターなどについて断言することによって、概念的に様々なサービスのグレードを要求できるでしょう。 例えばATMスイッチに基づくゲートウェイは、パケット(セルとATMセルからの)の断片化と再アセンブリを含むかもしれないパケット処理あたり特定のインターネットをするのにエントリー/出口でパケットプロセッサを使用するでしょう。
At the transport level, Parulkar argued for protocols which can provide application-oriented flow and error control with simple per packet processing. He also mentioned the notion of a generalized RPC (GRPC) in which code, data, and execution might be variously local or remote from the procedure initiator. GRPC can be implemented using network level virtual storage mechanisms.
輸送レベルでは、Parulkarはアプリケーション指向の流れと誤り制御を簡単にパケット処理あたり供給できるプロトコルについて賛成の議論をしました。 また、彼はコード、データ、および実行が手順創始者からさまざまにローカルである、またはリモートであるかもしれない一般化されたRPC(GRPC)の概念について言及しました。 ネットワークレベル仮想記憶メカニズムを使用することでGRPCを実行できます。
The basic premise of Raj Yavatkar's presentation (University of Kentucky) was that processes requiring communication service would specify their needs in terms of peak and average data rate as well as defining burst parameters (frequency and size). Bandwidth for a given flow would be allocated at the effective data rate that is computed on the basis of flow parameters. The effective data rate lies somewhere between the peak and average data rate based on the burst parameters. Statistical multiplexing would take up the gap between peak and effective rate when a sudden burst of traffic arrives. Bounds on packet loss rate can be computed for a given set of flow parameters and corresponding effective data rate.
Raj Yavatkarのプレゼンテーション(ケンタッキー大学)の根本的な前提は、通信サービスを必要とする過程がピークと平均したデータ信号速度に関して彼らの必要性を指定するだろうということであり、炸裂パラメタ(頻度とサイズ)を定義しています。 流れパラメタに基づいて計算される有効なデータ信号速度で与えられた流れのための帯域幅を割り当てるでしょう。 有効なデータ信号速度が炸裂パラメタに基づくピークと平均したデータ信号速度の間のどこかにあります。 交通の突然の炸裂が到着するとき、統計的多重化はピークと実効金利のギャップを取るでしょう。 与えられたセットの流れパラメタと対応する有効なデータ信号速度のためにパケット損失率の領域を計算できます。
This presentation led to a discussion about deliberate disciplining of inter-process communication demands to match the requested flow (service) profile. This point was made in response to the observation that we often have little information about program behavior and might have trouble estimating the network service requirements of any particular program.
このプレゼンテーションは要求された流れ(サービス)プロフィールを合わせるという相互の過程コミュニケーション要求の慎重な訓練についての議論につながりました。 このポイントは、私たちにはプログラムの振舞いの情報がしばしばほとんどあるというわけではないという観測に対応して作られて、ネットワークがどんな特定のプログラムに関するサービス要件であるとも見積もるのに苦労するかもしれません。
Architectural Discussion
建築議論
An attempt was made to conduct a high-level discussion on various architectural questions. The discussion yielded a variety of opinions:
様々な建築問題についてのハイレベルの議論を行うのを試みをしました。 議論はさまざまな意見をもたらしました:
1. The Internet would continue to exist in a form similar to its current incarnation, and gateways would be required,
1. インターネットは現在の肉体化と同様のフォームで存続するでしょう、そして、ゲートウェイが必要でしょう。
Partridge [Page 19] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[19ページ]RFC1152IRSGワークショップレポート1990年4月
at least to interface the existing facilities to the high speed packet switching environment.
少なくとも既存の施設を高値に連結するには、パケット交換環境を促進してください。
2. Strong interest was expressed by some participants in access to raw (naked ATM) services. This would permit users to construct their own gigabit nets, at the IP level, at any rate. The extreme view of this was taken by David Cheriton who would prefer to have control over routing decisions and other behavior of the ATM network.
2. 強い関心は生(裸のATM)のサービスへのアクセスの何人かの関係者によって示されました。 これは、ユーザがIPレベルでそれら自身のギガビットネットをいずれにせよ構成することを許可するでしょう。 この極端な意見はATMネットワークのルーティング決定と他の振舞いを管理するのを好むデヴィッドCheritonによって取られました。
3. The speed of light problem (latency, round-trip delay) is not going to go away and will have serious impact on control of the system. The optimistic view was taken, for example, by Craig Partridge and Van Jacobson, who felt that many of the existing network and communications management mechanisms used in the present Internet protocols would suffice, if suitably implemented, at higher speeds. A less rosy view was taken by David Clark who observed (as did others) that many transactions would be serviced in much less than one round-trip time, so that any end-to-end controls would be largely useless.
3. 軽い問題(潜在、往復の遅れ)の速度は、遠ざからないで、システムのコントロールに深刻な影響を持つでしょう。 例えば、楽天的な見方は現在のインターネットプロトコルに使用される既存のネットワークとコミュニケーション管理メカニズムの多くが十分であると感じたクレイグPartridgeとヴァン・ジェーコブソンが取られました、適当に実行されるなら、より高い速度で。 それほどばら色でない意見は多くの取引が往復のはるかに1回未満の後に修理されるのを観測した(他のもののように)デヴィッド・クラークによって取られました、終わりからエンドへのどんなコントロールも主に役に立たないように。
4. For applications requiring fixed, periodic service, reservation of resource seemed reasonably attractive to many participants, as long as the service period dominated the set-up time (round-trip delay) by an appreciable margin.
4. 修理されて、周期的なサービスを必要とするアプリケーションに関しては、リソースの予約は多くの関係者には合理的に魅力的に見えました、サービスの期間がかなりのマージンで、セットアップ時間(往復の遅れ)を支配した限り。
5. There was much discussion throughout the workshop of congestion control and flow control. Although these problems were not new, they took on somewhat newer character in the presence of much higher round-trip delays (measured in bits outstanding). One view is that end-to-end flow control is needed, in any case, to moderate sources sending to limited bandwidth receivers. End-to-end flow control may not, however, be sufficient to protect the interior of the network from congestion problems, so additional, intra-network means are needed to cope with congestion hot spots. Eventually such conditions have to be reflected to the periphery of the network to moderate traffic sources.
5. 輻輳制御とフロー制御のワークショップの間中、多くの議論がありました。 これらの問題は新しくはありませんでしたが、それらははるかに高い往復の遅れ(未払いのビットで、測定される)があるときいくらか新しいキャラクタを雇いました。 1つの視点はどのような場合でも、終わりから終わりへのフロー制御が限られた帯域幅受信機に発信するソースを加減するのに必要であるということです。 しかしながら、したがって、終わりから終わりへのフロー制御が混雑問題からネットワークの内部を保護できるくらいには追加していないかもしれない、イントラネットワーク手段が、混雑ホットスポットに対処するのに必要です。 結局、そのような状態は、交通源を加減するためにネットワークの周辺に反映されなければなりません。
6. There was disagreement on the build or simulate question. One view was in favor of building network components so as to collect and understand live application data. Another view held that without some careful simulation, one might have little idea what to build (for example, Sincoskie's large buffer pool requirement was
6. 不一致が体格にあったか、または質問をシミュレートしてください。 ライブアプリケーションデータを集めて、理解するためにネットワーク要素を造ることを支持して1つの視点がありました。 シミュレーション、ものには(を例えば、Sincoskie何に建てるかという考えがほとんどないかもしれないのに慎重ないくつかなしでそんなに大きく保たれて、バッファプール要件があったという別の意見
Partridge [Page 20] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[20ページ]RFC1152IRSGワークショップレポート1990年4月
not apparent until the system was simulated).
明らかでない、システムがシミュレートされた、)
Comments from Workshop Evaluation Forms
ワークショップ評価フォームからのコメント
At the end of the IRSG workshop, we asked attendees to fill out an evaluation form. Of the fifty-one attendees, twenty-nine (56%) turned in a form.
IRSGワークショップの端のときに、私たちは、評価書類に書き込むように出席者に頼みました。 51人の出席者では、29(56%)はフォームを提出しました。
The evaluation form asked attendees to answer two questions:
評価フォームは、2つの質問に答えるように出席者に頼みました:
#1. Do you feel that having attended this workshop will help you in your work on high speed networks during the next year?
#1. あなたは、翌年の間、このワークショップに出席したなら高速ネットワークに対する仕事で助けると感じますか?
#2. What new ideas, questions, or issues, did you feel were brought up in the workshop?
#2. 新しいアイデア、質問、または問題がしたことはワークショップで持って来られましたか?あなたが、感じる
In this section we discuss the answers we got to both questions.
このセクションで、私たちは両方の質問に得た答えについて議論します。
Question #1
質問#1
There was a satisfying unanimity of opinion on question #1. Twenty- four attendees answered yes, often strongly (e.g., Absolutely and very much so). Of the remaining five respondents, three said they expected it to have some effect on their research and only two said the workshop would have little or no effect.
満足のいった質問#1に関する意見の満場一致がありました。 20時4分出席者ははい、しばしば強く(例えば、Absolutelyとたいへんそう)に答えました。 残っている5人の応答者では、3は、彼らが、彼らの研究にいくつかの影響を与えると予想したと言いました、そして、2だけがワークショップには効果がまずないと言いました。
Some forms had some additional notes about why the workshop helped them. Several people mentioned that there was considerable benefit to simply meeting and talking with people they hadn't met before. A few other people noted that the workshop had broadened their perspective, or improved their understanding of certain issues. A couple of people noted that they'd heard ideas they thought they could use immediately in their research.
いくつかのフォームには、ワークショップがそれらを助けた理由に関するいくつかの補注がありました。 数人は、彼らが以前会ったことがなかった人々と共に単に面談することへのかなりの利益があったと言及しました。 数人の他の人々が、ワークショップが視野を広げたことに注意したか、または彼らのある問題の理解を改良しました。 2、3の人々が、自分達がすぐ彼らの研究に使用できるそれらが、思った考えを聞いたことに注意しました。
Question #2
質問#2
Almost everyone listed ideas they'd seen presented at the conference which were new to them.
ほとんどの人はそれらが会議に提示されるのを見た考えを記載しました(それらに、新しかったです)。
It is clear that which new ideas were important was a matter of perspective - the workshop membership was chosen to represent a broad spectrum of specialties, and people in different specialities were intrigued by different ideas. However, there were some general themes raised in many questionnaires:
どの新しいアイデアが重要であったかが、見解の問題であったのは明確です--ワークショップ会員資格は専門の広いスペクトルを表すために選ばれました、そして、異なった専門における人々は異なった考えによって好奇心をそそられました。 しかしながら、多くのアンケートで提起されたいくつかの一般的なテーマがありました:
(1) Limitations of our traffic models. This particular subject was mentioned, in some form, on many forms. The attendees
(1) 私たちの交通の制限はモデル化されます。 この特定の対象は多くのフォーム出席者で何らかのフォームで言及されました。
Partridge [Page 21] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[21ページ]RFC1152IRSGワークショップレポート1990年4月
generally felt we didn't understand how network traffic would behave on a gigabit network, and were concerned that people might design (or worse, standardize) network protocols for high speed networks that would prove inadequate when used with real traffic. Questions were raised about closed-loop vs. open-loop traffic models and the effects of varying types of service. This concern led several people to encourage the construction of a high-speed testbed, so we can actually see some real traffic.
一般に、私たちがネットワークトラフィックがギガビットネットワークでどのように振る舞うかを理解していなくて、それが力のデザインを住ませることを心配していたと感じる、(または、より悪い、標準化、)、本当の交通で使用されると不十分であると判明する高速ネットワークのためにプロトコルをネットワークでつないでください。 疑問は転々流通に対して閉ループしている交通モデルと異なったタイプのサービスの効果に関して引き起こされました。 この関心が、数人が高速テストベッドの建設を奨励するように導いたので、私たちは実際に何らかの本当の交通を見ることができます。
(2) Congestion control. Despite the limitations of our traffic models, respondents felt that congestion control at both switching elements and network wide was going to be even more important than today, due to the wider mix of traffic that will appear on gigabit networks. Most forms mentioned at least one of the congestion control talks as a containing a new idea. The talks by Victor Frost, Jamal Golestani and Scott Shenker received the most praise. Some attendees were also interested in methods for keeping the lower-layer switching fabric from getting congested and mentioned the talks by Robinson and Maxemchuk as of interest.
(2) 輻輳制御。 私たちの交通モデルの限界にもかかわらず、応答者は、ともに広い状態で要素とネットワークを切り換えるところの輻輳制御が今日よりさらに重要であるつもりであると感じました、ギガビットネットワークに現れる交通のさらに広いミックスのため。 新しいアイデアを含んでいて、ほとんどのフォームがaとして少なくとも輻輳制御会談の1つについて言及しました。 ビクタのフロスト、ジャマルGolestani、およびスコットShenkerによる会談は最も多くの称賛を受けました。 出席者の中にはまた、下層切り換え織物が充血するのを妨げるための方法に興味を持っていて、関心の時点でロビンソンとMaxemchukによる会談について言及した人もいました。
(3) Effects of fixed delay. While the reviews were by no means unanimous, many people had come to the conclusion that the most serious problem in gigabit networking was not bandwidth, but delay. The workshop looked at this issue in several guises, and most people listed at least one aspect of fixed delay as a challenging new problem. Questions that people mentioned include:
(3) 固定遅れの効果。 レビューが決してそうであった、満場一致、多くの人々、ギガビットネットワークで最も重大な問題が帯域幅ではなく、遅れであったという結論に来ました。 ワークショップはいくつかの外観におけるこの問題を見ました、そして、ほとんどの人々が固定遅れの少なくとも1つの局面についてやりがいがある新しい問題に記載しました。 人々が言及した質問は:
- How to avoid a one round-trip set up delay, for less than one round-trip time's worth of data?
- 往復の1回未満のデータの価値のために往復の1セットを遅れとして避ける方法?
- How to recover from error without retransmission (and thus additional network delays)? Several people were intrigued by Nachum Shacham's work on error detection and recovery.
- 誤りから「再-トランスミッション」(そして、その結果、追加ネットワーク遅延)なしで克服する方法? 数人は誤り検出と回復に対するナッハムShachamの仕事で好奇心をそそられました。
- Should we use window flow-control or rate-based flow control when delays were long?
- 遅れが長かったときに、私たちは窓のフロー制御かレートベースのフロー制御を使用するべきですか?
- Can we modify the idea of remote procedure calls to deal with the fact that delays are relatively long?
- 私たちは、遅れが比較的長いという事実に対処するように遠隔手続き呼び出しの考えを変更できますか?
A couple of attendees noted that while some of these problems looked similar to those of today, the subtle differences caused by operating a network at gigabit speeds led them to believe the actual approaches to solving these problems would have to be very different from those of
これらの問題のいくつかが今日のものと同様に見えましたが、2、3の出席者がそれに注意しました、速度が実際がこれらの問題がそれらと非常に異なるように持っている解決にアプローチすると信じているように導いたギガビットでネットワークを経営することによって引き起こされた微妙な違い
Partridge [Page 22] RFC 1152 IRSG Workshop Report April 1990
ヤマウズラ[22ページ]RFC1152IRSGワークショップレポート1990年4月
today.
今日。
Security Considerations
セキュリティ問題
Security issues are not discussed in this memo.
このメモで安全保障問題について議論しません。
Author's Address
作者のアドレス
Craig Partridge Bolt Beranek and Newman Inc. 50 Moulton Street Cambridge, MA 02138
モールトン・通りケンブリッジ、クレイグヤマウズラボルトBeranekとニューマン株式会社50MA 02138
Phone: (617) 873-2459
以下に電話をしてください。 (617) 873-2459
EMail: craig@BBN.COM
メール: craig@BBN.COM
Partridge [Page 23]
ヤマウズラ[23ページ]
一覧
スポンサーリンク