Skip to content

Commit 99996af

Browse files
committed
Fix curl url
1 parent c115cbc commit 99996af

File tree

8 files changed

+8
-8
lines changed

8 files changed

+8
-8
lines changed

website_and_docs/content/documentation/test_practices/discouraged/file_downloads.en.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -17,7 +17,7 @@ of emulating user interaction with the web platform.
1717
Instead, find the link using Selenium
1818
(and any required cookies)
1919
and pass it to a HTTP request library like
20-
[libcurl](//curl.haxx.se/libcurl/).
20+
[curl](https:////curl.se/).
2121

2222
The [HtmlUnit driver](https://github.com/SeleniumHQ/htmlunit-driver) can download attachments
2323
by accessing them as input streams by implementing the

website_and_docs/content/documentation/test_practices/discouraged/file_downloads.ja.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -11,7 +11,7 @@ aliases: [
1111

1212
Seleniumの管理下にあるブラウザーでリンクをクリックしてダウンロードを開始することは可能ですが、APIはダウンロードの進行状況を公開しないため、ダウンロードしたファイルのテストには理想的ではありません。
1313
これは、ファイルのダウンロードは、Webプラットフォームとのユーザーインタラクションをエミュレートする重要な側面とは見なされないためです。
14-
代わりに、Selenium(および必要なCookie)を使用してリンクを見つけ、 [libcurl](//curl.haxx.se/libcurl/) などのHTTPリクエストライブラリに渡します。
14+
代わりに、Selenium(および必要なCookie)を使用してリンクを見つけ、 [curl](https://curl.se/) などのHTTPリクエストライブラリに渡します。
1515

1616
[HtmlUnitドライバー](https://github.com/SeleniumHQ/htmlunit-driver)は、
1717
[AttachmentHandler](https://htmlunit.sourceforge.io/apidocs/com/gargoylesoftware/htmlunit/attachment/AttachmentHandler.html) インターフェイスを実装することで、

website_and_docs/content/documentation/test_practices/discouraged/file_downloads.pt-br.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -17,7 +17,7 @@ de emular a interação do usuário com a plataforma da web.
1717
Em vez disso, encontre o link usando Selenium
1818
(e todos os cookies necessários)
1919
e passe este cookie para uma biblioteca de solicitação HTTP como
20-
[libcurl](//curl.haxx.se/libcurl/).
20+
[curl](https://curl.se/).
2121

2222
O [driver HtmlUnit](https://github.com/SeleniumHQ/htmlunit-driver) pode baixar
2323
anexos acessando-os como fluxos de entrada, implementando o

website_and_docs/content/documentation/test_practices/discouraged/file_downloads.zh-cn.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -10,7 +10,7 @@ aliases: [
1010

1111

1212
虽然可以通过在Selenium的控制下单击浏览器的链接来开始下载, 但是API并不会暴露下载进度, 因此这是一种不理想的测试下载文件的方式.
13-
因为下载文件并非模拟用户与Web平台交互的重要方面. 取而代之的是, 应使用Selenium(以及任何必要的cookie)查找链接, 并将其传递给例如[libcurl](//curl.haxx.se/libcurl/)这样的HTTP请求库.
13+
因为下载文件并非模拟用户与Web平台交互的重要方面. 取而代之的是, 应使用Selenium(以及任何必要的cookie)查找链接, 并将其传递给例如[curl](//curl.se/)这样的HTTP请求库.
1414

1515

1616
[HtmlUnit driver](https://github.com/SeleniumHQ/htmlunit-driver)

website_and_docs/content/documentation/test_practices/discouraged/link_spidering.en.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -18,7 +18,7 @@ just to get to the page and traverse through the DOM.
1818

1919
Instead of using WebDriver for this,
2020
you could save a ton of time
21-
by executing a [curl](//curl.haxx.se/) command,
21+
by executing a [curl](https://curl.se/) command,
2222
or using a library such as BeautifulSoup
2323
since these methods do not rely
2424
on creating a browser and navigating to a page.

website_and_docs/content/documentation/test_practices/discouraged/link_spidering.ja.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -12,5 +12,5 @@ aliases: [
1212
WebDriverを使用してリンクをスパイダーすることは、実行できないためではなく、最も理想的なツールではないため明らかに推奨される方法ではありません。
1313
WebDriverの起動には時間が必要であり、テストの記述方法によっては、ページに到達してDOMを通過するために数秒から1分かかる場合があります。
1414

15-
このためにWebDriverを使用する代わりに、[curl](//curl.haxx.se/) コマンドを実行するか、BeautifulSoupなどのライブラリを使用することにより、これらの方法はブラウザーの作成やページへの移動に依存しないため、時間を大幅に節約できます。
15+
このためにWebDriverを使用する代わりに、[curl](https://curl.se/) コマンドを実行するか、BeautifulSoupなどのライブラリを使用することにより、これらの方法はブラウザーの作成やページへの移動に依存しないため、時間を大幅に節約できます。
1616
このタスクにWebDriverを使用しないことで、時間を大幅に節約できます。

website_and_docs/content/documentation/test_practices/discouraged/link_spidering.pt-br.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -18,7 +18,7 @@ apenas para chegar à página e atravessar o DOM.
1818

1919
Em vez de usar o WebDriver para isso,
2020
você poderia economizar muito tempo
21-
executando um comando [curl](//curl.haxx.se/),
21+
executando um comando [curl](https://curl.se/),
2222
ou usando uma biblioteca como BeautifulSoup
2323
uma vez que esses métodos não dependem
2424
em criar um navegador e navegar para uma página.

website_and_docs/content/documentation/test_practices/discouraged/link_spidering.zh-cn.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -14,7 +14,7 @@ WebDriver需要一些时间来启动,并且可能要花几秒钟到一分钟
1414
具体取决于测试的编写方式,仅仅是为了获取页面并遍历DOM.
1515

1616
除了使用WebDriver之外,
17-
您还可以通过执行 [curl](//curl.haxx.se/) 命令或
17+
您还可以通过执行 [curl](https://curl.se/) 命令或
1818
使用诸如BeautifulSoup之类的库来节省大量时间,
1919
因为这些方法不依赖于创建浏览器和导航至页面.
2020
通过不使用WebDriver可以节省大量时间.

0 commit comments

Comments
 (0)