cURLを使用して複数のウェブサイトにログインしています。
私の場合、ユーザー名とパスワードフィールドを取得するためにDOMを手動で表示するのは面倒です。
curl -d
その後、このフィールドを解析してコマンドを使用してログインします。
私がログインしなければならない唯一の理由は、クッキーを取得するためです。一部のウェブサイトのPythonでも同様です。
cURLを使用すると、ネットスケープ形式でCookieを取得できます。 Pythonを使用すると、Netscape形式に変換するにはより多くの作業を行う必要があります。
答え1
この場合、Curl は HTML 解析を実行しません。
これは直接行う必要があります。これは、シェルスクリプトですべての操作を実行するのが最も簡単な方法ではない可能性があることを示しています。
requests
このライブラリを使用してhttp部分を実行し、BeautifulSoupライブラリを使用してDOMからフィールドを取得する短いPythonプログラムを作成できます。
答え2
いいえ。カールはデータのみを検索します。応答本文をまったく解析するようには設計されていません。
Webサイトのログインを自動化するあらゆる種類のスクリプトにはPythonを使用することをお勧めします。必要モジュールもそうです。lxml用のHTMLパーサー。