摘み入れ地点

得た知見を書きためていく場所です。ソシャゲ、自動化、データを見るのが好きです。Amazonアソシエイト、各種アフィリエイトサービスを使用しています。

Twitter API審査に通ったのでやりとりした内容を公開します

結論4つ

  • 使用するAPIと使用しないAPIを明記する。特に絶対にしないことを書くと分かりやすくて良いらしい。
  • 具体的な処理を明記する。APIをN分にN回叩く、上限が来たらN分休む、など。Twitterが気にしているのはサーバにどれぐらい負荷がかかるかだと思われるため。
  • 分析する手法ではなく分析する要素を列挙する。いいね数、本文、ツイートしたアカウント等。
  • 分析結果の利用方法も明記する。公開非公開、公開するならどのページか等。

 

メールでやりとりを何度かしたあと、申請通りました。

特に日本語で自分のように個人で分析目的で申請した記事が見当たらなかったので書いておきます。参考になれば。

 

例文

自分が通ったときの内容を公開しておきます。

あくまで自分が通ったもので、これをまるごと真似したからと言って通るとは限りませんのでご了承ください。

Twitter APIを使用する目的
 コーディングの勉強、とくにWebAPIの使用方法
 ツイートの収集とその分析

コンテンツを獲得・分析するの手法
 以下ツールを使用予定
  Python
  MeCab(Word-separation for Japanese)
  Pandas(Python Lib)
 TwitterのStandard Search API or Premium Search API を実行する
 特定のハッシュタグを含むツイートを集める
 APIの実行頻度はプログラムの実行ごとに、1分に1回とする
 API上限に到達した場合はプログラムを20分スリープさせる


以下は絶対に行わない
 ツイートする
 いいねする
 リツイートする
 フォローする
 その他、SearchAPI以外のAPIは一切使用しない予定

コンテンツの分析内容
 ツイートのうち、以下を分析対象とする
 ツイートのID
  インデックスとして用いる
 アカウントのID
  同じユーザーが何個ツイートしたかを確認する
 テキスト
 添付画像
 添付画像のURL
 ツイートの「いいね」数
  もし「いいね」が多い場合、そのテキストは優れているので、重みを付けたいため

 

TwitterコンテンツをTwitter以外では表示しない
どこにも表示せず、個人で使用する予定

こんな感じで箇条書きにしました。3回目の再審査で要求された情報が上記見出しの部分だったので、こんな風に書きました。改めて見るとこっちの方が分かりやすくていいっすね。

 

ちなみにググると他の方々は日本語でやりとりできていたみたいなのですが、私はなぜかメールが英語で飛んできていたのでやりとりは全部英語でやりました。

DeepLで英語にしてちょいちょい直しただけですが、それでもイケるっぽいです。DeepL最高。

 

再審査になったときに書いていた内容

  • 収集対象の期間(N月N日以降のツイートを取得する)
  • ツイートの分析方法(共起頻度を数えて~とかそういうの)
  • データを集める目的(このワードで検索してツイートを集めれば、○○が含まれるとおもうから、どうのこうの)

APIの使用目的やそれがどれぐらい計画されているかを気にしているのだと思って、最初はこの辺を書いていましたが、結果2度ほど再審査になりました。

今思うと、結論に書いてた内容の方がTwitterにとっては重要なので、そりゃそうだなって感じです。コミュ力が試される。。。まだ足りぬ。。。

 

以上、共有。誰かの参考になれば幸いです。

 

補足:申請にかかった時間

やりとりにかかった時間はこんな感じでした。

  • 初日 12時 申請
  • 初日 18時 Twitterから返事(再審査するからメールしてね)
  • 初日 20時 返信
  • 初日 21時半 Twitterから返事(もう一回審査したいから詳細書いてほしい)
  • 2日目 14時 返信
  • 2日目 17時 Twitterから審査通過通知(いいじゃん!申し込みありがとうな!)

 

昔はけっこうかかっていた見たいですが、今はめっちゃスピーディに対応してくれます。これだけ早く対応してくれるTwitter社に感謝。

 

参考URL

先人たちの知恵です。こういうの本当に助かります。ありがとうございます。

皆さんもこれ見て申請通ったら、後の人の為にブログとか書いてくれると嬉しいです。

zenn.dev

qiita.com

qiita.com