5ちゃんねる ★スマホ版★ ■掲示板に戻る■ 全部 1- 最新50  

■ このスレッドは過去ログ倉庫に格納されています

連番のH画像を一気にダウンロードする

1 :たのも〜:2001/01/10(水) 15:02
最近、PGFをコレクション始めたのだが、httpで連番のファイルを一気にダウンロードする
ソフトやスクリプトがあれば教えてけれ。

2 :名無しさん@お腹いっぱい。:2001/01/10(水) 15:11
古いがhttpdownとかで落とせば?(もっといいのがあるだろう)
連番はshスクリプトとかでファイル名生成プログラム作ればいいじゃん

関係ないがnvってゆーregetできるツールはどんなカンジ?

3 :名無しさん@お腹いっぱい。:2001/01/10(水) 15:12
H画像じゃないけど、連番のファイルのダウンロードなら
perlでURLリスト作ってwget -i url.listでやってるが。

4 :名無しさん@お腹いっぱい。:2001/01/10(水) 15:12
自分でつくれよ(w
おれはいっつもperlスクリプトでURLリストをつくって
wget に食わせます


5 :4:2001/01/10(水) 15:13
3とかぶった(w


6 :3:2001/01/10(水) 15:14
外出鬱氏。

7 :3:2001/01/10(水) 15:17
みんな似たようなことやってるなー。

8 :名無しさん@お腹いっぱい。:2001/01/10(水) 15:24
zshとwgetをあわせればURLリストはコマンドラインで簡単に
生成できる。

9 :名無しさん@お腹いっぱい。:2001/01/10(水) 15:35
でも windows だと、この手のことするのにすんげー苦労しない?
波乗とか色々落して見たり。
#俺は teleport pro だったけど

10 :名無しさん@お腹いっぱい。:2001/01/10(水) 15:57
zsh を使えば
% wget http://www.hoge.he.jp/hoge/ero{001..100}.jpg
ってやるだけ

#zshに乗りかえろう

11 :名無しさん@お腹いっぱい。:2001/01/10(水) 16:15
>>10
ほう。何か不思議。どうなってんの?

12 :1:2001/01/10(水) 16:33
>3, 4様
当方、厨房ユーザーゆえ、後学のため、
そのPerlスクリプトの見本を教えてくだされ。


13 :???????????????B:2001/01/10(水) 17:05
perl -e 'while ($i < 100) {printf("%s%03d%s", "http://www.hoge.he.jp/hoge/ero", $i++, ".jpg\n");}'

まぁ、きれいじゃないが機能するよ。
んー、tcsh だけど移行しようかなぁ・・・。

14 :???????????????B:2001/01/10(水) 17:07
>>10
それって 256文字 (だっけ?)の制限ないのー?
よく xargs つかうけど。

15 :???????????????B:2001/01/10(水) 17:19
あ、言い忘れたけど、13 のあとに
| xargs wget
ってやってね。
んじゃ、なんどもごめん

16 :1:2001/01/10(水) 17:42
>13さんとりいそぎ、さんくすです


17 :名無しさん@お腹いっぱい。:2001/01/10(水) 17:53

FreeBSD なら jot,linux なら seq を使えば,連番を生成してく
れる。これを使って foreach ループを回せば,tcsh でも問題無し。


foreach i (`jot -w '%02d' 10 1`)
fetch http://eroero.com/erohoge$i.jpg
end

詳しくは man jot or info seq。


18 :not 3,4:2001/01/10(水) 18:04
連番じゃない場合は
$file='hoge';
$cmd = 'wget';
open (_F,$file);
$proc = 0;
$max = 10;
while (<_F>)
{
if ($proc > $max)
{
wait;
$proc--;
}
unless (fork)
{
exec("$cmd $_ ");
}
else
{
$proc++;
}
}
while($proc--) {wait;}
close _F;

19 :4:2001/01/10(水) 20:49
ほれ。>>1

#!/usr/local/bin/perl
#
# countupper mainly for URL generation:-)
#
$Help=<<'EOF';
countup: カウントアップするのだ! 000 001 002 ... バージョン

Usage: countup [end]
countup [start] [end]
countup [start] [end] [offset]
EOF

if ($#ARGV == 0) {
($start,$end,$offset)=(0,@ARGV,1);
} elsif ($#ARGV == 1) {
($start,$end,$offset)=(@ARGV,1);
} elsif ($#ARGV == 2) {
($start,$end,$offset)=(@ARGV);
} else {
print $Help and exit;
}
for ($i=$start;$i<=$end;$i+=$offset){
printf "%3.3d\n",$i;
}


あとは煮るなり焼くなりしてちょうだい。
countup という名前で保存して chmod 755 して
bash上から
for x in `countup 100 120 2`; do wget http://foo.com/~bar/$x.jpg; done
とかね。

zshも便利そうだねぇ。


20 :1:2001/01/11(木) 01:47
>17=18,4さんさん
ありがとうございました。いろいろ試してみたいと思います。

21 :名無しさん@お腹いっぱい。:2001/01/11(木) 04:41
bash$ cat ~/script/fromto
#!/usr/bin/perl

if (@ARGV != 3) {
print STDERR "usage: fromto FORMAT FROM TO\n";
exit 1;
}

$fmt=$ARGV[0]."\n";
$from=$ARGV[1];
$to=$ARGV[2];
for ($i=$from;$i<=$to;$i++) {
printf $fmt, $i;
}
bash$ fromto "http://www.aaa.bbb/%03d.jpg" 1 50 >url
bash$ wget -i url


22 :名無しさん@お腹いっぱい。:2001/01/11(木) 05:30
エロパワー恐るべし(藁

23 :名無しさん@お腹いっぱい。:2001/01/11(木) 09:22
プログラミングの基本だよね, なんつーか.
プログラミング経験の無い人にはまず sh スクリプトから俺はすすめたいね.
毎日の作業と密着してて課題が思いつきやすいし.

エロくてもいい. たくましく育って欲しい



24 :???????????????B:2001/01/11(木) 13:45
zshが入ってるのなら数列生成は楽だよ。

#!/usr/bin/zsh
url=$*
for val in {0..255}
do
wget ${url}${val}.jpg
done

25 :名無しさん@お腹いっぱい。:2001/01/11(木) 13:49
>>24
ださ。>>10をみろよ。

26 :24:2001/01/11(木) 13:54
>>25

ガーソ
外出出汁脳

27 :名無しさん@お腹いっぱい。:2001/01/11(木) 14:17
そうだね、cui で使ってると、日常の作業でだるい所を
ちょっとシェルスクリプトくんでってできるからね・・・
windows の wsh って、その点でどうなのかな?
簡単に組めるのかな?

28 :bash:2001/01/11(木) 14:23
i=1; while test $i -le 350; do printf "http://morning.excelland.com/other/%03d.jpg\n" $i; i=$(($i+1)); done > list
wget -i list

てのはダメ?

29 :反則技:2001/01/11(木) 16:01
vectorでおとしてくる。
#windows用だったりして

30 :名無しさん@お腹いっぱい。:2001/01/11(木) 16:12
>>27
慣れももちろんあるけど、まずCreateObject()してobject生成してから
このメソッド呼んで〜あのメソッドに渡して〜とかだから、shell script
ほど手軽な感じではないなぁ(少なくとも俺は)。

そもそも呼び出せるオブジェクト類のヘルプがどこにあるんだかわからん。

31 :名無しさん@お腹いっぱい。:2001/01/11(木) 17:04
>>22
うーむ。科学の発展はエロと共にあるのです。
インターネットの普及もエロがあればこそっ!!

32 :これはどうよ:2001/01/11(木) 21:07
1です。
13さんのパールスクリプトをお手本にして、徹夜で対話式連番作成パールスクリプトを作ってみました。
初めてのスクリプトです。お手柔らかにお願いします。

#!/usr/bin/perl
print "What is URL? (Default=http://www.hoge.ac.jp/img/)
http://";
$host = <STDIN>;
if ($host eq "\n") {
$host = "www.hoge.ac.jp/img/";
} else {
chomp($host);
}
print "What is filename? ";
$name = <STDIN>;
chomp($name);
print "What is file type? (default=jpg) ";
$typ = <STDIN>;
if ($typ eq "\n") {
$typ = "jpg";
} else {
chomp($typ);}
print "What is first number? (default=1) ";
$i = <STDIN>;
if ($i eq "\n") {
$i = 1;
} else {
chomp($i);}
print "What is last number? (default=52)" ;
$m = <STDIN>;
if ($m eq "\n") {
$m = 52;
} else {
chomp($m);}
open(FILE, ">list");
while ($i < $m+1) {
printf(FILE "%s%s%s%02d%s%s%s", "http://", $host, $name, $i++, ".", $typ, "\n");
}
close(FILE);


33 :名無しさん@お腹いっぱい。:2001/01/12(金) 01:15
>>32
ファイル名の数字が 1-52形式 ならいいが、01-52形式 だったら駄目だな。

34 :うひひ:2001/01/12(金) 08:58
>>33
1-52とは裏本だね(うひひ
なぜすべての本が52P構成かアンダーグラウンドの割にすごい結束だ
任意の業界団体でもあるのではないかと知人の出版社社長にたずねたこ
とがある。
答えは8枚単位で原盤をおこすので8の倍数が一番無駄がないんですと
なら48?
表紙は紙質が変わるので別扱いだそうで48+4の52Pなんだそうです。

ちなみに広告や能書きのたぐいを一切載せずに表紙まで使って純粋な写真集
に仕上がっているアノ本は究極の本ではないだろうか


35 :名無しさん@お腹いっぱい。:2001/01/12(金) 10:04
>>33
じゃあ、こうしよう。

print "What is first number? (default=1) ";
$i = <STDIN>;

if($i =~ /^0/){
$flag=1;
}

if ($i eq "\n") {
$i = 1;
} else {
chomp($i);}
print "What is last number? (default=52)" ;
$m = <STDIN>;
if ($m eq "\n") {
$m = 52;
} else {
chomp($m);}
open(FILE, ">list");
while ($i < $m+1) {

$num = $i;
if($flag){
$num =~ s/^(.)$/0$1/;
}

printf(FILE "%s%s%s%s%s%s%s", "http://", $host, $name, $num, ".", $typ, "\n");

$i++;

}
close(FILE);

36 :35:2001/01/12(金) 10:07
てゆーか
wgetだけで出来るだろ。

recursive指定してdepthを1にして、拡張子はjpgのみ。
多少ゴミも拾うかもしれんが、こっちの方が楽じゃない?

37 :名無しさん@お腹いっぱい。:2001/01/12(金) 12:49
世の中 recursive ではできないこともあるのさ、ベイベー。


38 :名無しさん@お腹いっぱい。:2001/01/12(金) 17:50
たとえば俺が自慰時に愛用している「桃色美少女ギャラリー」
http://www.jp-sex.com/sousyu.html)は画像乱れ打ち系ソフト
では連続ゲットできないようちょっとした仕掛けがしてあって、こ
れは perl やら ruby やらでスパッと書いてやらねば駄目なのだ。

39 :名無しさん@お腹いっぱい。:2001/01/12(金) 21:07
エロじゃないけど、日付が入ったファイル名の場合はどうしてる?
diary20010112.htmlみたいなのを根こそぎゲットするときとか。

40 :名無しさん@お腹いっぱい。:2001/01/13(土) 00:35
>>38
そのスクリプトちょーだい (はーと

41 :名無しさん@お腹いっぱい。:2001/01/13(土) 01:54
>>39

日付関係の便利なライブラリがある言語を使えばいいと思う
(RubyとかJavaとか)が、即席でCでジェネレータを書いてみた。
ただし仕様は限りなく手抜き。
日付フォーマット変えたいときはPRINTFMTをstrftime(3)で
指定可能な適当なものに変更してくれ。

#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <time.h>

#define PRINTFMT "%Y%m%d"

int gendate(const char *from, const char *to)
{
  const char *fmt = "%d%c%d%c%d";
  int i, y, m, d;
  char junk[2];
  struct tm local;
  time_t secs[2];
  char buff[24];
  const char *p;

  memset(&local, 0, sizeof(local));

  for (i = 0; i < 2; ++i) {
    p = i ? to : from;
    if (sscanf(p, fmt, &y, &junk[0], &m, &junk[1], &d) != 5) {
      fprintf(stderr, "Invalid date format: %s\n", p);
      return 2;
    }
    local.tm_year = y - 1900;  /* XXX */
    local.tm_mon = m - 1;
    local.tm_mday = d;
    secs[i] = mktime(&local);
    if (secs[i] == -1) {
      fprintf(stderr, "Can't handle date: %s\n", p);
      return 2;
    }
  }

  while (difftime(secs[0], secs[1]) <= 0) {
    strftime(buff, sizeof buff, PRINTFMT, localtime(&secs[0]));
    puts(buff);
    secs[0] += 60 * 60 * 24;
  }
  return 0;
}

int main(int argc, char **argv)
{
  if (argc < 3) {
    fprintf(stderr, "usage: %s from to\n", argv[0]);
    return 1;
  }
  return gendate(argv[1], argv[2]);
}



42 :名無しさん@お腹いっぱい。:2001/01/13(土) 02:02
>>38
たしかに、しゃらくさい HTML をしてるね。

43 :名無しさん@お腹いっぱい。:2001/01/13(土) 03:23
>>41
おおすごい。cで来ましたか。
なんか妙に有用なスレになってるな、ここ。(藁

44 :名無しさん@お腹いっぱい。:2001/01/13(土) 14:04
名スレage

45 :名無しさん@お腹いっぱい。:2001/01/14(日) 01:53
ところでPGFってよく聞くんですが、なんですか? URLとか教えてください。
って板違いか...

私は emacs 上で、M-% とか矩形カットアンドペースト(C-x r k、C-x r y)とか
使いまくってリストを作り、reget に喰わせてます。
スクリプトなりemacs上で、対話に答えるとリストのテキストを吐いてくれるような
物を作ったら便利だなと思っているんだけど、結局やっていない。

46 ::2001/01/14(日) 02:41
皆様のご協力により非常に便利なスクリプトを手にすることができ悦びの悲鳴を上げております。
スクリプトの勉強との両立ができてうれしい限りです。引き続き、
関係者・御賢者の方々には今後ともUNIXの「パーソナルユース」化
にご協力いただければと思います。
取り急ぎお礼まで。

>45
PGFについては下記URLをご覧ください。
http://members.tripod.com/pgf_daisuki

47 :???????????????B:2001/01/14(日) 03:36
>>45
> emacs 上で、M-% とか矩形カットアンドペースト(C-x r k、C-x r y)

スレ違い失礼。C-w と ESC-w があるように、矩形領域を
kill ring に保存するだけ、のってないかなぁ。

# C-x r k して undo はちょっとヤダ。


48 :名無しさん@お腹いっぱい。:2001/01/14(日) 04:15
>>47
register にコピーすればいいじゃん。
C-x r C-h してみればいろいろでてくるよ。
C-x r r とか C-x r s とか

49 :名無しさん@お腹いっぱい。:2001/01/14(日) 09:39
>>38
これってリファラあたりをみてんのかな。
鬱陶しいね。

50 :名無しさん@お腹いっぱい。:2001/01/14(日) 13:43
Referrer見てるだけならまだかわいいもんさ。
wgetだってReferrer設定できるし。
スポンサーをクリックして飛んだ先で画像URLが表示されるよーな
やつはかな〜り鬱陶しい。


51 :名無しさん@お腹いっぱい。:2001/01/14(日) 14:14
>>46
Linuxのねすけで見られないよ。
作った奴はマカーだね。

52 :名無しさん@お腹いっぱい。:2001/01/14(日) 14:40
>51
それじゃこっちを見てくれ。

http://www.mainichi.co.jp/digital/netfile/jamjam/9902/16-3.html

流出しているらしい。

53 :名無しさん@お腹いっぱい。:2001/01/14(日) 15:29
>>51
>作った奴はマカーだね。

FrontPage使ってるし、漢字コードはSJIS。
おもきしWinnerだ。ヴォケ。

54 :名無しさん@お腹いっぱい。:2001/01/14(日) 22:59
Winner WInner WINner


55 :>>51:2001/01/15(月) 01:22
おらのねすけではみれたぞ

56 :名無しさん@お腹いっぱい。:2001/01/15(月) 01:39
wget でクッキー食べれますか?

57 :>56:2001/01/15(月) 02:45
食えるわけねぇだろ。ハゲが。

58 :名無しさん@お腹いっぱい。:2001/01/15(月) 03:17
>>56
食べれるよ。cookie なら。

>>57
お前ヴァカ (藁

59 :58:2001/01/15(月) 03:19
ヲレがヴァカだ... w3m と wget をカンチガイ...
ウツダシノウ

>>57
ごめんちゃい

60 :教えて君56:2001/01/15(月) 05:29
>>58
ありがとう。
で、どやって食べるんでしょうか?(^^;
infoをcookieでgrepしてもなんもでてこないし…

61 :名無しさん:2001/01/15(月) 05:54
かわいいね。
残念ながら答えの方は俺も知らないんだけd。



62 :名無しさん@お腹いっぱい。:2001/01/15(月) 09:30
Lynxなら喰えるよ。

63 :名無しさん@お腹いっぱい。:2001/01/22(月) 06:23
age

64 :名無しさん@お腹いっぱい。:2001/01/22(月) 07:03
wget ではスペースを含んだ URL や --user-agent を
どうやって指定するのでしょうか?
'や"で囲んでもできませんでした)

65 :名無しさん@お腹いっぱい。:2001/01/22(月) 07:38
スペースのある url って存在するのかどうかはしらんが?
%20 ね。

66 :名無しさん@お腹いっぱい。:2001/01/22(月) 15:41
mozilla06とかだとURL中の改行も送れる。

67 :4きね8:2001/01/23(火) 23:30
K&R 改訂Cエログラミング

68 :1:2001/02/05(月) 02:51
ようやく賢人の方のアドバイスで素晴らしいコレクションとなりつつあるが、
wgetが美人絵ファイルを取ってきてくれない場合があるのだけれど、どうした
ものだろう。

例えば、
ttp://www.sexa.com/kazea/dayc/s000.jpg

wgetに任せていると綺麗なおねえちゃんの写真じゃなくて、変なhtmlファイル
を取ってくる。。。。

どうか賢人の方々のアドバイスをお願いします。

69 :名無しさん@お腹いっぱい。:2001/02/05(月) 03:46
>>1
ブラウザにそのアドレス打ち込んでも
画像表示されないぞ。
gtm や reget もどき使えよ。

70 :?????????????¨???¢?????¢?B:2001/02/05(月) 03:56
.wgetrcに
header = Referer: http://www.sexa.com/kazea/dayc/
を書いとけばOKだ。

71 :1:2001/02/05(月) 22:47
>70さん

ありがたいです。ようやく美女にgetするができました。

ところで、その呪文はどういう意味があるのですか?
後学のために教えてくれませんか。

>69
一旦、ここを経由してくれ。
http://www.sexa.com/kazea/dayc/day.htm

72 :69:2001/02/05(月) 23:15
>>1
見れましたが、残念ながら私の好みではありませんでした。

Refer ってのはどこからのアクセスかチェックしている。
Refer以外からのアクセスを禁止している。
68や69で画像を直接見れなかったのが、正にそれです。
んでもって、オプションでReferを設定すると
見れるようになります。

通常Referが設定されているのは
アダルトページやWareズといったページです。
要するに直リンク禁止です。
わかりました?

73 :1:2001/02/05(月) 23:28
>シックスナイン様

わかり易い解説、多謝です。

お礼代わりに、以下のURLを出発点にしてお好みのPGF美人を探りあててください。

ttp://www.am25.com/sojou/

74 :名無しさん@お腹いっぱい。:2001/02/06(火) 00:55
getしたエロ画像を保存するのに最適と思われるディレクトリ名


75 :名無しさん@お腹いっぱい。:2001/02/06(火) 01:14
xxx

76 :名無しさん@お腹いっぱい。:2001/02/06(火) 07:19
collection
ero


77 :名無しさん@お腹いっぱい。:2001/02/06(火) 11:33
誰か wget を flushget みたく
ファイルを分割して持ってくるようにした人いないですか?
あったらすっげぇよさそう。

78 :名無しさん@お腹いっぱい。:2001/02/06(火) 23:53
>>74
...

79 :名無しさん@お腹いっぱい。:2001/02/07(水) 04:18
>>74
/dev/rimage あたりかがみつかりにくくてよろしいかと。

80 :名無しさん@お腹いっぱい。:2001/02/07(水) 04:46
ero.img

81 :名無しさん@お腹いっぱい。:2001/02/07(水) 12:47
>>74
/mnt
普段はなんかマウントしとけ

82 :名無しさん@お腹いっぱい。:2001/02/07(水) 13:24
>>81
賢い。

83 :名無しさん@お腹いっぱい。:2001/02/10(土) 02:49
./.xxx

84 :名無しさん@お腹いっぱい。:2001/02/14(水) 13:10
エロ画像閲覧に使えるソフトやスクリプトがあれば教えてくれ。
EEって、スライドショー機能は付いていなかったよね?

85 :名無しさん@お腹いっぱい。:2001/02/14(水) 14:48
>>84
qiv はどうか
chbg を Window モードで動かすのもよいだろう

86 :名無しさん@お腹いっぱい。:2001/02/14(水) 23:38
>>78
一瞬ゴルゴかと思った。
mkdirしてみてなるほど。

87 :名無しさん@お腹いっぱい。:2001/02/15(木) 01:00
>>84
GQviewも試してみ。

88 :名無しさん@お腹いっぱい:2001/02/15(木) 14:51
mkdir  <-- 全角スペースn個
ls しても出ん、正に透明、どうよ?

89 :sage:2001/02/15(木) 19:40
>>88
$ls -F $B$5$l$k$H(B/($B%9%i%C%7%e(B)$B$,I=<($5$l$F$7$^$$$^$9!#(B
$B99$K%j%9%H$N@hF,$KI=<($5$l$k$N$G$P$l$P$l$G$9!#(B


90 :名無しさん@お腹いっぱい。:2001/02/15(木) 21:21
肛門マーク * とか。

# mkdir \*


91 :名無しさん@お腹いっぱい。:2001/02/17(土) 17:20
まずばれないよ
cd /usr/sbin
rm reboot
mkdir reboot
chmod 700 reboot

92 :名無しさん@お腹いっぱい。:2001/02/20(火) 20:12
lajfoauf:wp

93 :名無しさん:2001/02/20(火) 21:37
どんなセキュリティーねたよりも何よりも人を必死にさせるエロねたって一体・・・

94 :PGFコンプリート記念age:2001/02/27(火) 02:42
2chの皆様のご協力により、標記のようにPGF全168シリーズを無事コンプリートすることができました。

ご協力頂いた無数の2chの賢者の方々に御礼申し上げます。

95 :名無しさん@お腹いっぱい。:2001/02/27(火) 02:59
エロ画像のフルダウンロードですか。好きですね。

実は、自動backup機能がある、RAID5 NFSファイルサーバにエロ画像
1Gぐらいためてたんだが、ファイル消してもbackupフォルダに残って
るんだよ。backupはreadonlyで消したいんだが消せないんだ。管理者
に見つかったらどうするべ?



96 :>94:2001/02/27(火) 14:48
アドレス教えて

97 :名無しさん@お腹いっぱい。:2001/02/27(火) 16:41
>>95
管理者を抱きこむ
管理者を殺す
クラックする

…識者のレス待ちですかなぁ。

98 :>96:2001/02/27(火) 16:51
私は下記URLのリンクなどをたどって、かき集めました。
ttp://www.jansweb.dk/jp/pgf/series.asp
ttp://pgf.fucu.com/pgf/index.htm

このスレ立ち上げたのが1月10となっているから苦節50日ですかね。

99 :名無しさん@お腹いっぱい。:2001/02/27(火) 17:07
Winで連番リスト作るのにエクセル使ってるよ。

100 :96:2001/02/27(火) 18:38
>98
あり♪

>99
Winでいいならiriaが一発でやってくれる。
ワレザーが作った文化の恩恵にあずかれます。

101 :99@お腹いっぱい。:2001/02/28(水) 11:30
>>100
Iriaで展開できない名前の時のみ使ってるですよ。

102 :100:2001/02/28(水) 19:08
>101
そんなのあるの?

103 :101:2001/02/28(水) 21:49
盂蘭盆サイトとか…、Iriaのお約束を知らない土人詩サイトとか…。

104 :名無しさん@お腹いっぱい。:2001/04/20(金) 00:23
あげ

105 :名無しさん@お腹いっぱい。:2001/04/20(金) 00:27
14歳です。長さ太さこの年齢でどうですか?評価お願いします。

http://216.101.214.102/souko/pic_post3/image/1172.jpg




106 :名無しさん@お腹いっぱい。:2001/04/20(金) 06:15
>>105
まあ普通ってとこだろう。
しかし毛がずいぶんとひ弱な感じだな。
つかお前のふとももには毛が生えてないのか?

107 :名無しさん@お腹いっぱい。:2001/04/20(金) 16:09
gtmを使う私は軟弱もの。
toolメニューに連番機能があります。numeric downloadね。

http://gtm.sourceforge.net/

108 :名無しさん@お腹いっぱい。:2001/04/22(日) 00:05
aria 使えば?

109 :名無しさん@Emacs:2001/04/22(日) 23:06
wgetで
http://www.lares.dti.ne.jp/~lupan/pk/comp_angle.html
このページうまく落とすことが出来ますか?
なぜかimage/comp_angle1.jpgからimage/comp_angle6.jpgがうまく落とせないのですけど・・・

110 :名無しさん@お腹いっぱい。:2001/04/22(日) 23:58
>>109
# wget http://www.lares.dti.ne.jp/~lupan/pk/image/comp_angle1.jpg
--23:55:15-- http://www.lares.dti.ne.jp/%7Elupan/pk/image/comp_angle1.jpg
=> `comp_angle1.jpg'
www.lares.dti.ne.jp:80 に接続しています... 接続しました!
HTTP による接続要求を送信しました、応答を待っています... 200 OK
長さ: 18,463 [image/jpeg]

0K -> .......... ........ [100%]

23:55:19 (6.53 KB/s) - `comp_angle1.jpg' を保存しました [18463/18463]


111 :名無しさん@Emacs:2001/04/23(月) 00:08
>>110
いやいや直接jpgをurlに指定するのでは無くたとえば
wget -r -l2 http://www.lares.dti.ne.jp/~lupan/pk/comp_angle.html
とかでjpgファイルも一緒に落としてくれるとおもったんだけど・・・

112 :名無しさん@お腹いっぱい。:2001/04/23(月) 20:01
覚書。
wget --header=REFERER: "http://www.hogehoge.com/index.html" http://www.hogehoge.com/ero.jpg
wget -r -A .jpg http://www.hugohugo.com/gallary/hoge.html

113 :名無しさん@Emacs:2001/04/23(月) 23:38
いやいや
wget -r -l1 http://www.lares.dti.ne.jp/~lupan/pk/comp_angle.html
wget -r -l1 http://www.lares.dti.ne.jp/~lupan/pk/photoexpo99.html
この2つで
photoexpo99.htmlはjpgファイルを落としてくれるけど
comp_angle.htmlはjpgファイルを落としてくれないのです.--referer=設定してもだめ
<IMG SRC="...">のタグは落としてくれるけど<IMAGE SRC="...">のタグは落とせないのでしょうか?

もしかして私はとんでもない勘違いをしてる?

114 :名無しさん@お腹いっぱい。:2001/04/24(火) 09:21
>>113
<IMAGE> ってなんだ?


115 :名無しさん@お腹いっぱい。:2001/04/24(火) 10:07
IMGSRC はね、キャッスル.jp.FreeBSD.ORGがあるデザイン会社
ですね。おとしたらMLが配送されなくてこまります。

116 :名無しさん@Emacs:2001/04/24(火) 17:10
結局html.cのhtmlfindurl()に{ "image", "src" }を追加する事により
解決した.

117 :名無しさん@お腹いっぱい。:2001/05/04(金) 12:25
挙げ

118 :なまえをいれてください:2001/05/04(金) 23:09
普通にcshで
wget http.../ecchi{0,1,2,3,4,5,6,7,8,9}{0,1,2,3,4,5,6,7,8,9}.jpg
でできるんだけど…。
うちのcshってふつうじゃないんだろか???
たまにはこんなこともする。
echo wget http.../ecchi{"{0,2,4,6,8}","{1,3,5,7,9}"}.jpg\ \& | csh
極悪?

119 :もしもの為の名無しさん:2001/05/07(月) 10:38
【1】何分だいぶ昔に作ったものをまだ使っていて
可変数引数を使っていないあたりが当時の厨房ぶりの象徴ですが、
printf() の引数フォーマットをそのまま使えていろいろ使えます。それを
(1)例えば【2】みたいなんで落としてネスケで開いてページを編集→保存とか、
(2)同様に wget を使ったスクリプトを吐き出して勝手に落としてもらうか
と、そんな感じで私はやっておりますが。
※to ってコマンドが【1】をコンパイルしたもの。

【1】
#include <stdio.h>
#include <stdlib.h>
#include <string.h>

main(argc,argv)
int argc;
char *argv[];
{
int i,start,end,tmp,st;
char form[1024];

if(argc < 3){
printf("Usage: %s start end [\"format\"]\n",argv[0]);
exit(-1);
}

start = atoi(argv[1]);
end = atoi(argv[2]);
if(start < end)
st = 1;
else
st = -1;

if(argc > 3)
sprintf(form,"%s\n",argv[3]);
else
sprintf(form,"%sd\n","%");

for(i=start;i*st<=st*end;i+=st)
printf(form,i,i,i,i,i,i,i,i,i,i,i,i);

exit(0);
}

【2】
#!/bin/csh -f

foreach i (01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19 20 21 22)
to 1 50 '<img src="http://making001.japannudes.net/jgirl'"$i"'/%03d.jpg" width=64 heisht=48>'
end


120 :名無しさん@お腹いっぱい。:2001/05/07(月) 15:24
なんだかんだで perl で oneliner 書いて | wget -i - な感じだ.



121 :名無しさん@お腹いっぱい。:2001/05/18(金) 04:15
あげ

122 :名無しさん@お腹いっぱい。:2001/05/18(金) 08:21
あるディレクトリから下にあるファイルのみとってくるなんてこと、できるのかな?
先輩方、よろしくお願いします。

123 :名無しさん@お腹いっぱい。:2001/05/18(金) 10:45
>>122
フワナェ、簗ヒ。、筅、、、、、、「、、ネサラ、、、゙、ケ、ャ。「サ荀ホ・ア。シ・ケ。」
FreeBSD、ホports、ホニテト・ヌ・」・・ッ・ネ・ーハイシ、ャペ、キ、、サ、ホ、ソ、皃ヒ。「
alias wgetports 'wget --proxy=on --force-directories
--no-host-directories --directory-prefix=. --cut-dirs=4
--passive-ftp --recursive --level=1
ftp://hogehoge/path/to/ports/\!*'
、.cshrc、ヒス、、、ニ、゙、ケ。」シツコン、マ1ケヤ、ヌ、ケ。」。ハコニス、ュ、゙、キ、ソ。ヒ
、ウ、、ヌ。「~/ports、ネ、ォ、ヌ。「wgetports shells/tcsh、ネ、ォ、キ、゙、ケ。」
、「、゙、熙ウ、ホ・ケ・(。ヨ」ネイ霖。ラ)、ネエリキク、ハ、、、ホ、ォ、ハ。ゥ

124 :名無しさん@お腹いっぱい。:2001/05/18(金) 11:35
>>122
wgetで--no-parentを指定すれ。

125 :名無しさん@お腹いっぱい。:2001/05/19(土) 15:08
象を一気にダウンロード

126 :名無しさん@お腹いっぱい。:2001/05/20(日) 13:19
面倒くさいので
wget -r http://www.ero.com なんですけど・・・
56kでも2,3時間ほっとけばそれなりおちてくるし

127 :名無しさん@お腹いっぱい。:2001/05/20(日) 20:02
>>126
ちったー、設定しろ


128 :名無しさん@お腹いっぱい。:2001/05/26(土) 05:10
age


129 :名無しさん@お腹いっぱい。:2001/06/15(金) 16:24
最近、どうよ。

130 :名無しさん@お腹いっぱい。:2001/07/03(火) 01:35
ICHでH画像全部消えた。
まあ、俺の心の中にバッファされてるが。

131 :名無しさん@お腹いっぱい。:2001/07/03(火) 04:31
ageないの?

132 :名無しさん@そうだドライブへ行こう:2001/07/03(火) 04:48
perl の magical increment をつかえ。

133 :厨房:2001/07/03(火) 10:40
#!/bin/sh
b=10
c=1
d=Z

while test $b -lt 21
do
wget http://210.188.252.22/%7Ezenigata/lsrNpie/seifuku3/seifuku3$d/0$b.j
pg
b=`expr $b + 1`
done
while test $c -lt 10
do
wget http://210.188.252.22/%7Ezenigata/lsrNpie/seifuku3/seifuku3$d/00$c.
jpg
c=`expr $c + 1`
done

134 :名無しさん@お腹いっぱい。:2001/07/05(木) 13:55
つーか、特定のリンクサイトのリンク先の画像を一気に取って来る方法で、
かつ、余分な画像をはじく意味でも、サイズがある一定サイズ以上のもの
を取って来て、なおかつ、連番で保存ってどおよ。

135 :名無しさん@お腹いっぱい。:2001/07/06(金) 21:31
wgetを使ってこのようにCGIでファイルがリンクされている場合はどうすればいいのでしょうか?
http://www.classicalarchives.com/bach.html

上のサイト、クラシックのMidiが作曲者ごとにたくさんあって好き。

136 :名無しさん@お腹いっぱい。:2001/07/07(土) 19:28
なんかwget1.7ってmakeが失敗するんだけどなんでかな。
ていうかgnuのサイトからとってきたソース、gzipがエラー吐く・・・。
おとなしく1.6を使ってろ、ってことかな。

137 :名無しさん@Emacs:2001/07/08(日) 00:49
wget1.7おれはmake出来たよ

でも-kオプションってうまく働いてない気がする.
ついでにSSLもうまくいかん.

138 :名無しさん@お腹いっぱい。:2001/07/10(火) 00:48
とりあえずこの話題に関しては
まずこのサイトを見ないと始まらないと
思われ。
ツールもそろってるし
http://members.tripod.co.jp/casinoA1/

139 :名無しさん@お腹いっぱい。:2001/08/21(火) 12:32
age

140 :名無しさん@お腹いっぱい。:2001/08/22(水) 02:14
bashでときどき
for i in `seq -w 0 52`; do wget http://..../aaa$i.jpg; done
とか
while read i; do wget $i; done
とかやるね。後者はMozillaからURLコピーしまくる。

こういう感じの使い捨てスクリプト書いてたけど
あんまり使わなかった。標準入力からURLを入力するだけで
000〜そのURLの番号まで全取得してくれるはずなんだけど。

#!/bin/bash
while read url; do
if [ -z "$url" ]; then next; fi
eval 'url=(' `echo $url|sed 's/\(.*\/[^0-9]*\)\([0-9]*\).jpg/\1 \2/'` ')'
for i in `seq -w 0 ${url[1]}`; do
wget ${url[0]}$i.jpg
done
done

GNU/Linuxシステムじゃないと動かんカモ。

141 :名無しさん@お腹いっぱい。:2001/08/22(水) 12:34

集めたあとの整理はどうしてるよ?

wgetとかでとってくると
www9.smutserver.com/teen/sex1000/tgp/*.jpg
のようにディレクトリが深くていやーん。

どうでもいいけど。

142 :名無しさん@お腹いっぱい。:2001/08/23(木) 04:24
$ find . -type f -name \*.jpg -exec mv {} . \;
$ rm -r */

とでもしてカレントディレクトリに移せば?

143 :名無しさん@お腹いっぱい。:2001/08/23(木) 05:28
>>141
-nd つかえば?
-nHでも一つ減る。

144 :名無しさん@お腹いっぱい。:2001/08/23(木) 10:01
ネタはくだらないくせに妙に為になるよ、このスレ(藁

145 :名無しさん@お腹いっぱい。:2001/08/23(木) 13:45
>>141
俺は URL そのままにしてるよ。
利点は
* 連番系をあとで補間できる
* サイトを割り出せる
* 2ch で紹介しやすい :-)
* そもそもユニークなファイル名を付けるのが面倒

146 :名無しさん@お腹いっぱい。:2001/08/23(木) 15:16
$ mkdir symlinks
$ find . -type f -name \*.jpg -exec ln -sf {} symlinks \;

これはどーだ?

147 :sage:2001/08/23(木) 15:42
sage

148 :名無しさん@お腹いっぱい。:2001/08/23(木) 16:33
おなにーするときはどうするんですか?

find . -name '*.jpg' | xargs xv -wait 2 -random

でいいですか? (藁

149 :名無しさん@お腹いっぱい。:2001/08/23(木) 17:00
>>148
こーいうときに威力を発揮するのが仮想画面だったりするのよね.
1 画面に 5 〜 6 枚, 数画面に渡り表示しておき, 画面切り替え.

1600x1200 いいぜ :D

# スレ的には失格なネタ

150 :名無しさん@お腹いっぱい。:2001/08/23(木) 17:13
俺はGQviewがお気に入り。
サムネイル画像を表示させておき、
最後は全画面表示にして逝く
下品でスマソ

151 :名無しさん@お腹いっぱい。:2001/08/24(金) 02:14
tarやzipを読めるviewerってない?
微妙にスレ違いだが、inode消費が気になる....

152 :名無しさん@お腹いっぱい。:2001/08/24(金) 03:07
キーボードで楽に使える viewer ないかな。
ノートPCなのでほとんどキーボードでやってるんだが、
画像表示だけは GQview で仕方なくトラックボールを
しこしこやってる。

153 :名無しさん@お腹いっぱい。:2001/08/24(金) 03:17
>>151
こんなのはいかが?
http://enfle.fennel.org/

154 :名無しさん@お腹いっぱい。:2001/08/24(金) 03:53
>>153

Susie Plug-in にも対応してるんですね
(・∀・)イイ!

155 :名無しさん@お腹いっぱい。:2001/08/24(金) 23:39
>>152
いまだに xv を愛用しています。快適。

156 :名無しさん@お腹いっぱい。:2001/08/25(土) 00:14
>>141
> 集めたあとの整理はどうしてるよ?
種類ごとにディレクトリほって、symlink してる。
めんどうだけど。

画像見ながら分類したいな。
なんかいいツールない?
Nautilus か?

157 :152:2001/08/25(土) 01:51
>>155
おーサンキュ。xv ってキーボードで操作できるんだ。
non-free だから今まで敬遠してたけど、使ってみよう。

158 :名無しさん@お腹いっぱい。:2001/08/25(土) 02:24
>>157
最初はキーボードの操作を覚えるのがちょっと大変かもしれん。
最近は良い時代になって、FLMask パッチを使う必要がほとんどなくなった。

159 :名無しさん@お腹いっぱい。:2001/08/25(土) 04:44
>>158
FLMaskパッチに感動したのも懐かしいなあ。
今はもう動画ばっかりだ。

関係ないけど「璃樹無」分割って単なるsplitだったんだね。
気づく前はこれだけのためにWIN立ち上げてたYO。

160 :名無しさん@お腹いっぱい。:2001/08/25(土) 10:11
どこだったか忘れたけど、サムネール画像上のマウスの位置を送らないと見られないサイトがあって、
HTTPでPOSTリクエストしてデータを取得するPerlスクリプトを書いたこともあったなぁ。

今では、うちに背景画像配信サーバーが立っていたりする…

161 :名無しさん@お腹いっぱい。:2001/08/25(土) 11:45
例えば、
ttp://www.xxx81.com/jp
にリンクされている、rmファイルを一気にすべてダウンロード
するなんてperlなどで出来るの化な?

162 :tori:2001/08/25(土) 12:02
internet -router - solaris (proxy でfire Wall) - クラスCの事業所セグメント
現在事業所の計算機をグローバルアドレスにするには、Router
使っています。このNATをルーターでは無く、Solaris で行うには
どうすればいいでしょうか?

163 :名無しさん@お腹いっぱい。:2001/08/25(土) 12:07
>>162
H画像を落とすためにか?

164 :名無しさん@お腹いっぱい。:2001/08/25(土) 13:00
>>161
そのページに14個のサンプルがあるけど、そのこと?
それなら、何も考えなくても、どんな方法でも簡単に落とせるように見えるけど。

165 :名無しさん@Emacs:2001/08/25(土) 13:06
>>161
htmlからリンク先を抽出したいということですか?

166 :名無しさん@お腹いっぱい。:2001/08/25(土) 13:13
q , ,
q /( )`
q \ \___ / |
q /- _ `-/ '
q (/\/ \ \ /\
q / / | ` \
q O O ) / |
q `-^--'`< '
q (_.) _ ) /
q `.___/` /
q `-----' /
q <----. __ / __ \
q <----|====O)))==) \) /====
q <----' `--' `.__,' \
q | |
q \ / /\
q ______( (_ / \______/
q ,' ,-----' |
q `--{__________)
q

167 :名無しさん@お腹いっぱい。:2001/08/25(土) 13:14
.................,........,
................/(........)`
................\.\___.../.|
.............../-._..`-/..'
..............(/\/.\.\.../\
.............././...|.`....\
..............O.O...)./....|
..............`-^--'`<.....'
.............(_.).._..).../
...............`.___/`..../
................`-----'./
...<----......__./.__...\
...<----|====O)))==).\)./====
...<----'....`--'.`.__,'.\
................|........|
.................\......./......./\
............______(.(_../.\______/
.........,'..,-----'...|
.........`--{__________)

168 :名無しさん@お腹いっぱい。:2001/08/25(土) 13:15
...................................................,........................,
................................................/(........................)`
................................................\...\___........./...|
............................................./-..._......`-/......'
..........................................(/\/...\...\........./\
........................................../.../.........|...`............\
..........................................O...O.........).../............|
..........................................`-^--'`<...............'
.......................................(_...)......_......)........./
.............................................`...___/`............/
................................................`-----'.../
.........<----..................__.../...__.........\
.........<----|====O)))==)...\).../====
.........<----'............`--'...`...__,'...\
................................................|........................|
...................................................\...................../...................../\
....................................______(...(_....../...\______/
...........................,'......,-----'.........|
...........................`--{__________)

169 :名無しさん@お腹いっぱい。:2001/08/25(土) 14:32
モナーフォント無しで見られる親切設計だ。
NetBSD デーモンかな?

170 :名無しさん@お腹いっぱい。:2001/08/26(日) 00:58
00000000000000000000000

171 :161:2001/08/26(日) 01:07
>165
その通りです。
インターネットNinja(Window)らしき事を
Unix系OS上(特にperl)で実現したいのです。
可能でしょうか。


>162
あなた、
Solaris教えてスレッド 其の弐 (826)
の方へ書き込んだつもりでしょう。

私もその失敗、経験済みです。

172 :名無しさん@お腹いっぱい。:2001/08/26(日) 01:14
>>171
Perlとかを使えば、HTMLファイルからURLを抽出するのは単なる文字列の抽出なので、
慣れれば簡単にできますよ。この機会に正規表現とか覚えるのもいいかも。

173 :名無しさん@お腹いっぱい。:2001/08/26(日) 01:23
grep して sed >> list して (これを何回かやって) wget -i list

174 :173:2001/08/26(日) 01:24
ガガーソ。こんな書き込みでスレをageてしまうなんて初めての経験だ…

175 :普段は エロ系:2001/08/26(日) 01:32
凄い! 2ちゃん の危機で UNIX初めて覗いたけど なんか凄い
で PGF 一応全タイトルと WAVファイル持ってます
1さん
でも 簡単に 入手するより きっと 過程が楽しいのでしょうね
皆様 凄いわ!

176 :名無しさん@お腹いっぱい。:2001/08/26(日) 01:44
過程なんか楽しくねーよ。

177 :名無しさん@お腹いっぱい。:2001/08/26(日) 01:51
過程 "も" 楽しい。

178 :普段は エロ系:2001/08/26(日) 01:53
あ そうなの(^^;;

179 :名無しさん@お腹いっぱい。:2001/08/26(5) 29:00
「インターネットニンジャじや、一発じゃ。」
と無粋な流れを無視したコメントを残しておく。

(そして反発を買う。)  ワクワク・・・・うふ。





                                           ラブ。

180 :では反発:2001/08/26(5) 31:00
sed で複数 html からリスト作って wget で取得の方が遥かに早いです

181 :180:2001/08/26(5) 32:00
ていうか、書き込み時刻がめちゃくちゃだな

182 :名無しさん@お腹いっぱい。:2001/08/26(5) 34:00
こここれは??

183 :名無しさん@お腹いっぱい。:2001/08/26(5) 34:00
32:00って_________?

184 :test:2001/08/26(5) 43:00
test

185 :名無しさん@お腹いっぱい。:2001/08/26(5) 44:00
やっぱおかしいな

186 :名無しさん@お腹いっぱい。:2001/08/26 06:02
だめ?

187 :名無しさん@Emacs:01/08/26 09:17
test

188 :名無しさん@Emacs:01/08/26 09:18
自治age

189 :名無しさん@お腹いっぱい。:01/08/26 11:59
27 名前:名無しさん(新規) 投稿日:2001/08/26(日) 11:56 ID:9kvbOGiQ
  ◎
  ┣−-┓
  |AGE|
  ┣−-┛
  |
  |
 Λ|Λ
(・∀・)イイ!
(    )
|  つ |
(__)_)

190 :名無しさん@Emacs:01/08/26 13:17
perlのモジュール使ってhtmlからリンク先を抽出するのは
どうやればいいんですか?

191 :名無しさん@お腹いっぱい。:01/08/26 13:23
>>190
wgetでできるだろうがスカポンタン

192 :名無しさん@お腹いっぱい。:01/08/26 13:28
やり方はいろいろあると思うが HTML::Parser モジュールを使うと
XML でいう SAX のような感じの処理で <A HREF="XXXXX">...</A>
の XXXXX の部分を抜きだせるはず

193 :名無しさん@Emacs:01/08/26 13:33
>>191
wgetで出来るとは知りませんでした。調べてみます。
再帰転送のことではないですよね?

194 :名無しさん@お腹いっぱい。:01/08/26 15:10
httpgetというスクリプトがあって、
それで再帰的にリンク先のファイルを取得できるみたいよ。
まあwgetでいいわけだけど。
参考にしてみれば?

195 :名無しさん@Emacs:01/08/26 16:38
>>194
httpget取って来て見てみました。
確かにリンクを抜き出す関数がありました。感謝です。

196 : :01/09/05 22:02 ID:ssMW8tkM


197 :名無しさん@お腹いっぱい。:01/09/06 07:42 ID:t/5EHQk.
rtsp://hoge.hoge/stream.rm のストリーミングビデオを
ファイルに落とすのはどうすればいい?

198 :名無しさん@お腹いっぱい。:01/09/06 12:12 ID:RQop.hqE
>>197
http で落とせたような気がする

199 :名無しさん@お腹いっぱい。:01/09/16 11:54
age

200 :名無しさん@お腹いっぱい。:01/09/17 23:34
正直言って、zsh と wget で大抵の事は出来るような気がする。
今までそれ以上の手間が必要な連番ダウンロードには出会った事がない。

201 :犬板:01/09/18 11:14
>>200

じゃぁここはどーやって落すの?
httpだとどっかあさってに吹っ飛ばされるのだが…

http://japanese.asian-house.com/ura/1999-10/Mintshower.html

202 :名無しさん@お腹いっぱい。:01/09/18 12:10
>201
あきらめる。
んで、他のトコから落とす。

203 :名無しさん@お腹いっぱい。:01/09/18 18:19
>201 zsh -c 'wget --referer=http://japanese.asian-house.com/ura/1999-10/ japanese.asian-house.com/ura/1999-10/1030_m[01-52].jpg'

204 :名無しさん@お腹いっぱい。:01/09/18 18:20
間違えた。{01..52}ね。

205 :名無しさん@Emacs:01/09/18 23:48
refferer

206 :名無しさん@お腹いっぱい。:01/09/27 05:19
for i in `jot -s ' ' 30 1`; do i=`printf %03d $i`; for j in 1 2 3 4 5; do wget -nd -nH http://210.155.134.217/phpdmm/m/mdc${i}/mdc${i}jp-${j}.jpg; done ; done
ハァハァ

207 :名無しさん@お腹いっぱい。:01/09/27 22:36
bash$ for n in `seq -f %02g 8 12`
bash$ do
bash$ echo ero$n.jpg
bash$ done

ero08.jpg
ero09.jpg
ero10.jpg
ero11.jpg
ero12.jpg

こんなんどう?

208 :名無しさん@Emacs:01/10/04 01:10
>>207

140で既出

209 :1:01/10/04 01:41
このところ忙しくて裏本リンクサイト見てなかったら数冊の新刊本がでてた。
一冊一冊取ってくるのは面倒なので、寝る前に一括して取ってくるスクリプトを
考えてます。とりあえずそれぞれの連番のリストファイルはlistとして作っておいて、各裏本用のフォルダーをxxx.dirにおいておくとして以下のようなスクリプ
トをつかってます。とりあえずうまくいってますが、サイトが変わるとrefererの
問題などが考えられると思います。皆様のお知恵を拝借したいと思います。

#!/bin/sh
for i in *.dir
do
cd /home/username/urabon/$i
cat list | xargs wget
done

210 :名無しさん@お腹いっぱい。:01/10/04 18:04
>>209
フォルダーと言ってしまったな...

211 :1:01/10/05 00:59
>>210
ばればれ? by Kyon2

212 :名無しさん@お腹いっぱい。:01/10/05 01:21
$ lftp http://www.iy-n.org
lftp> get *.jpg

ってのがまだないな。

213 :(゚o゚):01/10/05 01:59
このサイトはみなさんのインターネット環境の
スピードを計ってくれます。また、遅いと思う
人は設定を少し変えることによって無料で
スピードを早くすることができます。
お金を出す前に一度試してみては
いかがでしょうか。上がりの計測も可能です。

http://cym10262.omosiro.com/

214 :名無しさん@お腹いっぱい。:01/10/05 22:28
>>209
>サイトが変わるとrefererの問題などが考えられると思います。

1さんお帰りなさい。

referer等の情報を保持したリストを読み込めるwrapperを書くのがいいのでは。
reget, getright, iria 等のリストが読み込めると嬉しいっす。

215 :名無しさん@お腹いっぱい。:01/10/05 22:41
>>212
でlftpの威力をはじめて知った。

216 :名無しさん@お腹いっぱい。:01/10/13 09:46
定期age

217 :名無しさん@Emacs:01/10/18 07:14
破損jpegの検索とかできない?

218 :名無しさん@お腹いっぱい。:01/10/18 07:59
>217
i) ImageMagick
$ identiry broken.jpg
identify: Corrupt JPEG data: premature end of data segment (broken.jpg) [No such file or directory].
broken.jpg JPEG 510x750 DirectClass 8-bit 5120b 0.1u 0:01

ii) libjpeg
$ djpeg broken.jpg >/dev/null
Premature end of JPEG file

nonzero statusで死ぬ分djpegの方が便利かも。

219 :名無しさん@Emacs:01/10/19 02:22
>218 サンキュ

for I ;do
for J in `find "$I" -iname \*.jpg` ;do
djpeg "$J" >& /dev/null || wget -xc -T30 -t0 "$J"
done
done

220 :名無しさん@お腹いっぱい。:01/10/24 01:13
djpeg 使うのなら、jpegtran も便利。それなりに修復してくれる。

for i in *.jpg; do
jpegtran $i > h || mv -v h $i
done

221 :名無しさん@お腹いっぱい。:01/10/29 21:15
メンテナンスあげ

222 :名無しさん@お腹いっぱい。:01/11/16 02:31
メンス?

223 :名無しさん@お腹いっぱい。:01/11/18 02:43
WinMXで落とした.zipに入っている.jpgを、展開せずに簡単に
見られる方法ない? 日本語ファイル名対応なやつ。

224 :名無しさん@Emacs:01/11/18 03:34
XVかな

225 :名無しさん@お腹いっぱい。:01/11/19 03:15
>>224
パチいるって書いてあげれ

226 :名無しさん@Emacs:01/11/19 05:09
まあ gmc でもいいや

227 :名無しさん@お腹いっぱい。:01/11/19 15:50
>223 enfle

228 :名無しさん@お腹いっぱい。:01/12/03 07:39
二重カキコと言われたが

229 :名無しさん@お腹いっぱい。:01/12/07 00:38
perl知らないおれもがんばってるぞ。 >1
#!/bin/sh
start=0
end=400
server_url=http://xxx.asian-x.com/1/a/

number=${start}
while [ TRUE ]
do
number=`printf %03d ${number}`
fetch -a ${server_url}${number}.jpg
if [ ${number} = ${end} ]; then
exit 0
fi
number="`expr ${number} + 1`"
done

230 :名無しさん@XEmacs:01/12/07 00:43
>>100
iriaクローンの aria というのがあるのを知ってる?

が私は、じみに lftp と cURL をおすすめする。
cURL + gotmail.pl で
ホットメイルを落とせて、ちょっとうれしい今日この頃。

#しかしUNI板の話題ではないのでは・・・

231 :名無しさん@お腹いっぱい。:01/12/09 21:16

落してもアレ外せないからなぁ。Win がないと。

232 :名無しさん@お腹いっぱい。:01/12/09 23:24
アレって何?

233 :デフォルトの名無しさん:01/12/09 23:41
>>209
激亀レスだが、

love http://www.h.sex/love/%02d.jpg 20 http://www.h.sex/love.html
hate http://www.h.sex/hate/%02d.jpg 20 http://www.h.sex/hate.html

#!/bin/sh
(
while read dir url n referer;
(
if [ ! -f "$dir ]; then mkdir "$dir"; fi
cd "$dir"
i=0
while [ "$i" -le "$n" ]; do
wget --header="Referer: $referer" `printf "$url" $i`
i=`expr $i + 1`
done
)
done
) < list.txt

234 :デフォルトの名無しさん:01/12/09 23:42
>>233
> while read dir url n referer;
< while read dir url n referer; do

235 :名無しさん@お腹いっぱい。:01/12/10 00:55
linuty は、対応している偽装が中途半端だ。

236 :名無しさん@お腹いっぱい。:01/12/10 23:37
wine でドラッグアンドドロップできる winのツール教えれ。
Vector で探したがついに見つからなかった。
つうかファイルのメニューつけないファイルいらうアプリ逝ってよし

237 :名無しさん@お腹いっぱい。:01/12/12 06:16
>>232
アレはあれ。

238 :名無しさん@お腹いっぱい。:01/12/12 23:50
>217 ひどく古い話だけど、jpeginfo(1)なんてのがあった。
jpeginfo v1.5a Copyright (c) Timo Kokkonen, 1995-1998.
Usage: jpeginfo [options] <filenames>

-c, --check check files also for errors
-d, --delete delete files that have errors
-f<filename>, --file<filename>
read the filenames to process from given file
(for standard input use '-' as a filename)
-h, --help display this help and exit
-5, --md5 calculate MD5 checksum for each file
-i, --info display even more information about pictures
-l, --lsstyle use alternate listing format (ls -l style)
-v, --verbose enable verbose mode (positively chatty)
--version print program version and exit
-q, --quiet quiet mode, output just jpeg infos
-m<mode>, --mode=<mode>
defines which jpegs to remove (when using the -d option).
Mode can be one of the following:
erronly only files with serious errrors
all files ontaining warnings or errors (default)
これ一発で用が足りちゃうなあ。
http://www.cc.jyu.fi/~tjko/projects.html

239 :http gateway:01/12/13 02:46
begin 755 /tmp/down.cgi
M(R$O=7-R+V)I;B]P97)L"@HF<&%R86U?9V5T.PH*)'-E;F1M86EL(#T@(B]U
M<W(O<V)I;B]S96YD;6%I;"(["B1W9V5T(#T@(B]U<W(O;&]C86PO8FEN+W=G
M970B.PHD9&ER(#T@(B\D1D]237LG87)E82=]+R1&3U)->R=D:7(G?2(["B1C
M;G1S="`]("1&3U)->R=C;G1S="=].PHD8VYT960@/2`D1D]237LG8VYT960G
M?3L*)&-N='5S92`]("1&3U)->R=C;G1U<V4G?3L*)')E=')Y(#T@)$9/4DU[
M)W)E=')Y)WT["B1E;6%I;"`]("1&3U)->R=E;6%I;"=].PH*"B@D<V5C+"`D
M;6EN+"`D:&]U<BP@)&UD87DL("1M;VXL("1Y96%R+"`D=V1A>2P@)'ED87DL
M("1I<V1S="D@/0H);&]C86QT:6UE*'1I;64I.PHD;F]W9&%T92`]("(D>65A
M<B\D;6]N+R1M9&%Y("1H;W5R.B1M:6XB.PH*<')I;G0@/#Q%3TT["D-O;G1E
M;G0M5'EP93H@=&5X="]H=&UL"@H\:'1M;#X*(#QH96%D/@H@(#QT:71L93YD
M;W=N;&]A9"!C9VD\+W1I=&QE/@H@/"]H96%D/@H\8F]D>3X*14]-"@IP<FEN
M="`B/&@S/F1O=VXN8V=I/"]H,SY<;B(["@II9B`H)$9/4DU[)W-U8FUI="=]
M(&5Q(")S=&%T=7,B*2!["@DF=V=E=%]S=&%T=7,["GT@96QS:68@*"1&3U)-
M>R=A8W1I;VXG?2!E<2`B9V5T(BD@>PH))F1O=VYL;V%D.PI](&5L<V4@>PH)
M)G!R:6YT7V9O<FT["GT*"G!R:6YT("(\+VAT;6P^/"]B;V1Y/EQN(CL*"G-U
M8B!P87)A;5]G970@>PH):68@*"1%3E9[)U)%455%4U1?34542$]$)WT@97$@
M(E!/4U0B*2!["@D)<F5A9"A35$1)3BP@)'%U97)Y7W-T<FEN9RP@)$5.5GLG
M0T].5$5.5%],14Y'5$@G?2D["@E](&5L<V4@>PH)"21Q=65R>5]S=')I;F<@
M/2`D14Y6>R=1545265]35%))3D<G?3L*"7T*"0H)0&$@/2!S<&QI="@O)B\L
M("1Q=65R>5]S=')I;F<I.PH)"@EF;W)E86-H("1A("A`82D@>PH)"2@D;F%M
M92P@)'9A;'5E*2`]('-P;&ET*"\]+RP@)&$I.PH)"21V86QU92`]?B!T<B\K
M+R`O.PH)"21V86QU92`]?B!S+R4H6S`M.6$M9D$M1EU;,"TY82UF02U&72DO
M<&%C:R@B0R(L(&AE>"@D,2DI+V5G.PH)"21&3U)->R1N86UE?2`]("1V86QU
M93L*"7T*?0H*<W5B('!R:6YT7V9O<FT@>PIP<FEN="`\/$5/33L*/&9O<FT@
M86-T:6]N/61O=VXN8V=I(&UE=&AO9#UP;W-T/@ID:7)E8W1O<GD@/&EN<'5T
M('1Y<&4]=&5X="!N86UE/61I<CX*/'-E;&5C="!N86UE/6%R96$^"CQO<'1I
M;VX@=F%L=64]=7-R+VAO;64O<'5B/G!U8FQI8PH\;W!T:6]N('9A;'5E/75S
M<B]H;VUE+V9T<"]P=6(^9&%T83(*/&]P=&EO;B!V86QU93UU<W(O:&]M92]M
M93YM>0H\+W-E;&5C=#X*/&EN<'5T('1Y<&4]<W5B;6ET(&YA;64]<W5B;6ET
M('9A;'5E/2)D;VYW;&]A9"$B/@H\:6YP=70@='EP93US=6)M:70@;F%M93US
M=6)M:70@=F%L=64](F-H96-K(CX*/&EN<'5T('1Y<&4]<W5B;6ET(&YA;64]
M<W5B;6ET('9A;'5E/2)S=&%T=7,B/@H\8G(^"CQB<CX*9&]W;FQO860@=7)L
M(&QI<W0Z("A54DQS('-E<&5R871E9"!#4DQ&*3QB<CX*/'1E>'1A<F5A(&-O
M;',](C@P(B!R;W=S/2(Q,"(@;F%M93TB=7)I(CX*/"]T97AT87)E83X*/&)R
M/@H\:6YP=70@='EP93UC:&5C:V)O>"!N86UE/6-N='5S92!V86QU93TQ/F-O
M=6YT97(@*"5D*2`*/&EN<'5T('1Y<&4]=&5X="!N86UE/6-N='-T('-I>F4]
M-"!V86QU93TP/B"AP0H\:6YP=70@='EP93UT97AT(&YA;64]8VYT960@<VEZ
M93TT('9A;'5E/3$P,#X*?`IR97-U;'0@;6%I;"!T;R`\:6YP=70@='EP93UT
M97AT(&YA;64]96UA:6P^(`I\"G)E=')Y(#QI;G!U="!T>7!E/71E>'0@;F%M
M93UR971R>2!S:7IE/30@=F%L=64],3`P/@H\8G(^"CQI;G!U="!T>7!E/6AI

240 :cont:01/12/13 05:47
M9&1E;B!N86UE/6%C=&EO;B!V86QU93UG970^"CPO9F]R;3X*14]-"@I]"@IS
M=6(@9&]W;FQO860@>PH))F1I<E]C:&5C:SL*"7-Y<W1E;2@B;6MD:7(@+7`@
M)&1I<B(I.PH)8VAD:7(H)&1I<BD["@DD;W!T<R`]("(M+71R:65S/21R971R
M>2(["@DD;6%I;&-M9"`]("(R/B8Q('P@)'-E;F1M86EL("UF(&1O=VXN8V=I
M("1E;6%I;"(@:68@*"1E;6%I;"!N92`B(BD["@H)0'5R;',@/2!S<&QI="@O
M7')<;B\L("1&3U)->R=U<FDG?2D["@H)<')I;G0@(FYO=R!D;W=N;&]A9&EN
M9RXN+CQ0/EQN(CL*"6EF("@D96UA:6P@;F4@(B(I('L*"0EP<FEN="`B<V5N
M9"!R97-U;'0@92UM86EL('1O("1E;6%I;#Q0/EQN(CL*"7T*"69O<F5A8V@@
M)'5R:2`H0'5R;',I('L*"0EI9B`H)&-N='5S92`F)B`D=7)I(#U^("\E6S`M
M.5TJ6V1X6%TO*2!["@D)"69O<B`H)&D@/2!C;G1S=#L@)&D@/#T@)&-N=&5D
M.R`D:2LK*2!["@D)"0DD9B`]('-P<FEN=&8H)'5R:2P@)&DI.PH)"0D)<')I
M;G0@(B1F/$)2/EQN(CL*"0D)?0H)"7T@96QS92!["@D)"7!R:6YT("(D=7)I
M/&)R/EQN(CL*"0E]"@E]"@D*"6EF("@D1D]237LG<W5B;6ET)WT@97$@(F-H
M96-K(BD@>PH)"29P<FEN=%]V87)S.PH)"7)E='5R;CL*"7T*"61O('L*"0EP
M<FEN="`B/'`^97)R;W(@:6X@97AE8R!W9V5T/'`^(CL*"0EE>&ET.PH)?2!U
M;FQE<W,@;W!E;BA0+"`B?"`D=V=E="`D;W!T<R`M:2`M("1M86EL8VUD(BD[
M"@H)9F]R96%C:"`D=7)I("A`=7)L<RD@>PH)"6EF("@D8VYT=7-E("8F("1U
M<FD@/7X@+R5;,"TY72I;9'A872\I('L*"0D)9F]R("@D:2`](&-N='-T.R`D
M:2`\/2`D8VYT960[("1I*RLI('L*"0D)"21F(#T@<W!R:6YT9B@D=7)I+"`D
M:2D["@D)"0EP<FEN="!0("(D9EQN(CL*"0D)?0H)"7T@96QS92!["@D)"7!R
M:6YT(%`@(B1U<FE<;B(["@D)?0H)?0H*"6-L;W-E*%`I.PH)"GT*"G-U8B!D
M:7)?8VAE8VL@>PH):68@*"1&3U)->R=S=6)M:70G?2!E<2`B8VAE8VLB("D@
M>PH)"7)E='5R;CL*"7T*"6EF("@D1D]237LG=7)I)WT@97$@(B(I('L*"0EP
M<FEN="`B/'`^;F5E9"!T;R!I;G!U="!T87)G970@55),<SQP/EQN(CL*"0EP
M<FEN="`B/"]B;V1Y/CPO:'1M;#XB.PH)"65X:70["@E]"@EI9B`H)$9/4DU[
M)V1I<B=](&5Q("(B*2!["@D)<')I;G0@(CQP/FYE960@=&\@:6YP=70@9&ER
M96-T;W)Y(&YA;64\<#Y<;B(["@D)<')I;G0@(CPO8F]D>3X\+VAT;6P^(CL*
M"0EE>&ET.PH)?0H):68@*"1D:7(@/7X@+UPN7"XO*2!["@D)<')I;G0@(F5R
M<F]R.B!C86YN;W0@:6YC;'5D92!U<'!E<B!D:7)E8W1O<GD@6RXN75QN(CL*
M"0EE>&ET.PH)?0I]"@IS=6(@<')I;G1?=F%R<R!["G!R:6YT(#P\14]-.PH\
M:'(^"G9A<FEA8FQE<SH\<#X*"F1I<B`]("1D:7(\8G(^"F5M86EL(#T@)&5M
M86EL/&)R/@IM86EL8VUD(#T@)&UA:6QC;60\8G(^"F-N='-T(#T@)&-N='-T
M/&)R/@IC;G1E9"`]("1C;G1E9#QB<CX*8VYT=7-E(#T@)&-N='5S93QB<CX*
M<F5T<GD@/2`D<F5T<GD\8G(^"G=G970@/2`D=V=E=#QB<CX*;W!T<R`]("1O
M<'1S/&)R/@I%3TT*"GT*"G-U8B!W9V5T7W-T871U<R!["@EP<FEN="`B=V=E
M="!S=&%T=7,Z/'`^7&XB.PH)<')I;G0@(CQP<F4^7&XB.PH);W!E;BA7+"(O
M8FEN+W!S(&%X('P@+W5S<B]B:6XO9W)E<"!W9V5T('P@9W)E<"`M=B!G<F5P
M('PB*3L*"7=H:6QE*#Q7/BD@>PH)"7!R:6YT("(D7R(["@E]"@EC;&]S92A7
9*3L*"7!R:6YT("(\+W!R93Y<;B(["GT*"FYT
`
end

241 :名無しさん@お腹いっぱい。:01/12/15 16:40
ttp://www.ona-server.com/teenage/cream_a/aikawa_misao/
POST でしか取れないんだけど、何かいい手ない?

242 :名無しさん@お腹いっぱい。:01/12/15 16:55
>>241

#!/bin/bash

for i in `seq -w 013 253`; do wget -nc http://www.ona-server.com/teenage/cream_a/aikawa_misao/big/$i.jpg; done

243 :241:01/12/15 16:58
うわ、GET で取れんじゃん。
すまそ。

244 :Nowhereman:01/12/16 06:40
>230 も書いてたけど、cURL がいいと思われ。

"cURL and libcurl"
ttp://curl.haxx.se/

245 :名無しさん@お腹いっぱい。:01/12/17 03:48
curl 何が旨いかイマイチ…
レクチャーしてくれよん

246 :Nowhereman:01/12/17 20:05
>245
このスレ的には>10が書いてたような事が簡単に出来るからかな。

> curl -O protocol://foo.com/bar[001-100].jpg
とか。
対応してるプロトコルが多いのも嬉しいしね。

247 :名無しさん@お腹いっぱい。:01/12/17 20:39
プロトルコ

248 :名無しさん@お腹いっぱい。:01/12/17 23:52
トルコ風呂?

249 :名無しさん@お腹いっぱい。:01/12/18 14:19
wget-1.8が出てるね。
--limit-rateがあるから、仕事中にバックグラウンド
でコソーリダウソするにはいいかも(藁

250 :名無しさん@お腹いっぱい。:01/12/18 18:14
>249 1.8のrate limitationにがバグがあるからパッチ当てようne!

251 :249:01/12/19 09:16
>>250 サンクス!
http://www.mail-archive.com/wget%40sunsite.dk/msg02206.html
のことだよね。

252 :250:01/12/19 10:01
>251 んだす。
あと、-rと-mでReferer:が送られないという、ちょっとこのスレ的には致命的な
バグもあるので注意ね。
http://cvs.sunsite.dk/viewcvs.cgi/wget/src/recur.c

253 :名無しさん@お腹いっぱい。:01/12/23 17:50
ageage

254 :名無しさん@お腹いっぱい。:01/12/29 09:55
集めた画像から、画像サイズが小さいやつをrmしたいんだけど、
うまいスクリプトはないですか?

find -type d -size -20k

とかってのはあるけど、けっこうファイルサイズは大きい画像なのに
小さな画像とかってのあるよね。

255 :名無しさん@お腹いっぱい。:01/12/29 10:29
>254 jpegなら>238のjpeginfoでサイズがわかるよ。
jpeg以外はImageMagickのidentifyで。

256 :名無しさん@お腹いっぱい。:01/12/30 17:16
zsh+wgetで簡単にできるらしいぞ

ソース:
ttp://diary.imou.to/~AoiMoe/2001.12/late.html#2001.12.27_s03

257 :名無しさん@お腹いっぱい。:01/12/30 17:32
(´-`).。oO(釣れた)

258 :名無しさん@お腹いっぱい。:01/12/30 17:36
>>256
散々既出だろ

259 :名無しさん@お腹いっぱい。:02/01/02 02:30
apacheのディレクトリリスティング(て言うんだっけ?忘れた)で
表示されるようなページから落とすのはどうするの?

たとえば以下のページ
http://www.freewebspacehost.net/lolitadreams/pics/

単純に wget -A jpg,jpeg,gif -r とかだと、NameやLast modifiedとか
いった部分も落とそうとしてハマるんだよね・・・

260 :名無しさん@お腹いっぱい。:02/01/02 02:57
-R '?[A-Z]=[A-Z]'

261 :名無しさん@お腹いっぱい。:02/01/04 22:35
ええスレや
来年新人が男だけだったら、このねた
使わせてもらいます。

262 :名無しさん@お腹いっぱい。:02/01/23 03:37
かなり前に1.8.1が出てるけどwebページには何も書いてないぞage。

wgetのコマンドラインオプションについて語るスレはこちらでしょうか?
ある意味とても実用的なスレで(・∀・)イイ!

しかしスレタイトルを見る限りシェルかcurlの話題だよね…。
お前ら、他にwgetに関して語るスレがあれば教えてください。


263 :名無しさん@お腹いっぱい。:02/01/23 04:03
>262 イイんじゃないでしょうか。拙僧はwget専門です。
少し前のwget@はIPv6統合の気配が見えてもえもえでした。

264 :名無しさん@お腹いっぱい。:02/01/23 10:48

% wget -l2 -A .tex -p http://www.biwako.shiga-u.ac.jp/sensei/kumazawa/tex/4ldots.html
で、ここからリンクされてる .tex ファイルが取れてません。

.wgetrc の accept = tex,sty とかで指定してもダメだった。というか reject で指定した以外のは
全部取ってきて欲しいのですが。


265 :名無しさん@お腹いっぱい。:02/01/23 12:01
エロ画像じゃないのでやる気減退

266 :名無しさん@お腹いっぱい。:02/01/23 13:22
つーか、直接
wget http://www.biwako.shiga-u.ac.jp/sensei/kumazawa/tex/4ldots.tex
しやがれ。

大体たった1個のTeXファイル落すためになんでそんな余計なことをする?


267 :名無しさん@お腹いっぱい。:02/01/23 14:33
エロ小説は対象外ですか?(w


268 :名無しさん@お腹いっぱい。:02/01/23 14:43
1周年かよ (w

ハラヘッタ。



269 :名無しさん@お腹いっぱい。:02/01/23 17:30
>>264
wget -Lr --no-parent http://www.biwako.shiga-u.ac.jp/sensei/kumazawa/tex/4ldots.html

4ldots.gif 4ldots.html 4ldots.tex
がとれましたが?


270 :名無しさん@お腹いっぱい。:02/01/24 06:04
>>265
モチベーション的にどうかと思ったが、wgetの達人がいるらしいので。

>>266
URLは1つの例。最終的にはサイト全体をゲットするのだ。

>>269
-r かぁ! なんで基本的なオプション忘れて。。サンクスコ

あと -L は使い道がないので無くなるらしい。


271 :名無しさん@お腹いっぱい。:02/01/24 06:05
もひとつ、、

PGFブスばっかりやん。完全にアウト。


272 :名無しさん@お腹いっぱい。:02/01/24 06:49
こっちのスレの1の改造じゃいかんの?
http://pc.2ch.net/test/read.cgi/unix/1003833552/l50


273 :名無しさん@お股いっぱい。:02/01/29 01:13
もう、なんか、まともにページ見る気がしない。

for I in tfc002.tripod.com/{index,g2,g3,g4,g5}.html tfc003.tripod.com/{index,g7,g8,g9}.html tfc004.tripod.com/{index,g11,g12,g13}.html tfc005.tripod.com/{index,g15}.html tfc001.tripod.com/{index,g17,g18}.html ;do wget -ml1 -T30 -A.jpg -Xspic $I ;done


274 :名無しさん@お腹いっぱい。:02/02/24 17:59
メンスあげ

275 :名無しさん@お腹いっぱい。:02/02/24 19:31
ariaじゃだめなの?

276 :名無しさん@お腹いっぱい。:02/02/24 20:59
ariaはコマンドラインから使いにくいしなぁ。
-d オプションが効いてないようだし。



277 :名無しさん@お腹いっぱい。:02/02/24 21:29
俺、ブラウザ(galeon)で見て気に入ったのだけ保存する派なのだが、気をつ
けないと同じディレクトリの%d*.jpgっつうファイルをどんどん上書きしちゃ
う。
「右クリック→画像を保存」で、同じ名前のファイルが保存先のディレクト
リにあったら%d*_連番.jpgとリネームして付け加えてくれると助かる。
wgetではそんな機能あるよね(ファイル名の後に連番だけど)。
いい方法無いかな。

278 :名無しさん@お腹いっぱい。:02/02/24 21:39
>277 拙者もgaleonを用いてござるが、聊か偏執狂で画像のタイムスタンプなどに拘る
性癖があり、「画像の場所をコピー」してwgetに喰わせてござる。galeonはlocalの
squidを経由しておる故、wgetもcacheから持ってくるようにすれば無駄なトラヒックも
生じず(゚д゚)ウマーなり。

アップローダなどに上がった画像で、ファイルネームが情報性に乏しい場合などは、
登場した板、スレ、レス番号から[board][thread][res].jpg などと変名してござる。

手間分の価値があるかどうかは拙者、断言致し兼ねる。

279 :名無しさん@お腹いっぱい。:02/02/25 14:28
URLの位置に保存してます。かぶること少ないし。
2chに出しやすいから神になりやすい ;-)


280 :名無しさん@お腹いっぱい。:02/03/02 13:46
えっと、ニューズグループの画像を自動ダウンロードすることはできますか?

281 :名無しさん@お腹いっぱい。:02/03/02 18:09
>280 http://nget.sourceforge.net/

282 :名無しさん@お腹いっぱい。:02/03/02 18:35
import java.io.*;
import java.net.*;
public class EroGazoLoader{
  public static void main(String[] args) throws Exception{
    for(int i=0; i<100; i++){
      URL url = new URL("http://www.foo.com/ero/" + i + ".jpg");
      InputStream in = url.openStream();
      FileOutputStream out = new FileOutputStream(i + ".jpg");
      byte[] buffer = new byte[1024];
      while(true){
        int length = in.read(buffer);
        if(length < 0)  break;
        out.write(buffer, 0, length);
      }
      in.close();
      out.close();
    }
    return;
  }
}


283 :名無しさん@お腹いっぱい。:02/03/11 14:45
wgetいいんだけど、くそ重いサイトからダウソしていると、
-t 0(リトライ無限)オプションを付けていても、
connection refused. とか言われていつの間にか終了してしまう。
この場合自動でリトライさせる方法ないかな?

ttp://hp.vector.co.jp/authors/VA008536/script/net/wget_bg.txt

みたいなシェルスクリプトでwgetを回していると、切れてることに気付かなくて鬱になる。

284 :名無しさん@お腹いっぱい。:02/03/19 00:39
age

285 :名無しさん@お腹いっぱい。:02/04/01 18:16
定期あげ

286 :名無しさん@お腹いっぱい。:02/04/01 23:22
ここに触発されて、新入社員の教育(3日連続)のシメに
某エロサイトのhtmlから直リンクを生成せよっていう課題を出した。

最初は誰もその真意を理解せずにノホホンとスクリプト組んでたが、
暇つぶしに利用法を語りだすとだんだん真剣にキーを叩くように。
時間が終わった後も、応用例や疑問点等、最初の2日間適当に流して
理解しなかった点についてもしっかりと押さえようと彼等は真剣に
質問してきた。
また、もし時間が余った場合に備えてもう2本ほどhtmlを用意してた
が、それらは彼等への自習用としてあげたら喜んで残業してスクリプト
を組んでいた。


来年もこれでやろ。


287 :杞憂:02/04/01 23:27
>>286
セクハラになったりしない?

288 :名無しさん@お腹いっぱい。:02/04/01 23:43
>>286
いい話だなァ……。

289 :名無しさん@お腹いっぱい。:02/04/02 00:10
>>287
新人が喜んでるならいいんだけどね。
そうでないとまずいかもね。

290 :名無しさん@お腹いっぱい。:02/04/02 00:11
たとえ新人が男でも。

291 :名無しさん@お腹いっぱい。:02/04/02 00:36
ああ確かにこういうの、男でもイヤがるひといるね。
2ちゃんねらーなら、ヤなものは無視するだけだろうが(w

292 :286:02/04/02 01:10
マジメな課題も用意してたんよ、糞つまらんけど半日かかる奴いくつか。
さすがに女性参加だとやらんかったけど、男ばっかで新入社員ってノリ
良いし。

んで、演習に使ったのはhtmlファイルだけで、職場自体がモロ画像を手に
入れることのできるネットワーク環境じゃないんで、「会社で作って寮か
ツレのところへ持ち込め!」ってやったら気合入れてやってたよ。
んで、さらに一人残業してた奴は
「いや、これ後30分で持っていくってインターネットやってるツレに電話
したからどうしてもやんないと!」

そいつ、今、俺の弟子やってます(笑)。

293 :名無しさん@お腹いっぱい。:02/04/07 16:09
>>286
新入社員の秀作、名作、迷作キボー

294 :名無しさん@お腹いっぱい。:02/04/07 16:32
社会人になったら>>286みたいな先輩がほしいなぁ。

295 :名無しさん@お腹いっぱい。:02/04/07 17:13
おれも新人研修やるんだけど..
新入社員に女子がいるし、人事の女にもチェックされるんだヨウ...
女性用にホモ画像サイトも用意してやるか..


296 :名無しさん@お腹いっぱい。:02/04/07 17:44
若い子には猫の写真とか。

297 :名無しさん@お腹いっぱい。:02/04/07 20:54
>>295
ホモは奥が深くて難しい。安全にショタ系にすれ。

298 :286:02/04/08 12:25
>>293
ちょっと前までサーバ上に名作、迷作の回答あったんだけど、弟子にUNIXの
バックアップ・リストアの実演やらかした時に消しちゃったい。
各自で保存しているらしいから、そのうちちょっと聞いてみるけど。

結構面白いのもあったんだけどね。

ただ、特に仕様らしい仕様も出さなくて、「とにかく直リンクがコマンド一発で
抜き出せればOK」だったので、そのhtmlファイル依存しまくりのスクリプト
だらけだったよ(当然か)。
でも、その某サイトは同じ格好のhtmlが数百本あるから、スクリプトを時間
かけて作成するだけの価値が彼らにはあったと信じる(笑)。

>>296
安全牌としてそのテも考えていたんだけど、スクリプトを使って大量
ダウンロードできるだけのボリュームがあるサイトを見つけられなかった。
今後の安全牌として、どこか紹介していただけるとありがたいです。


299 :名無しさん@お腹いっぱい。:02/04/09 02:24
>298
難易度高いけどこことか。
http://www.ne.jp/asahi/hobbies/kiyochan/cats/cats_frame.htm

300 :286:02/04/09 22:58
>299
お、まとまったサイト紹介、ありがとさんです。
細切れになってるからリンクマジメに辿るとかだと大変かも。

でも安牌にさせてもらいます。

301 :名無しさん@お腹いっぱい。:02/04/14 12:36
#!/usr/bin/perl
#
# index.pl
# ネスケで一覧するのを提案します。
# ノーチラス使えない環境の人には良いかも。
# このスレひととおりみたけどこういうのはまだ出てないみたいだったので。
# 小さくすればグロ画像もこわくないですし。
# file:/home/ero/wget/index.html とかして使用すます。
#
# 画像のたまったディレクトリで ./index.pl > side.html
# index.html として下のを用意
# body.html は無くて良い
#
#index.html
#<HTML>
#<FRAMESET COLS='20%,*'>
#<FRAME SRC='side.html' NAME='side' SCROLLING='auto'>
#<FRAME SRC='body.html' NAME='body' SCROLLING='auto'>
#</FRAMESET>
#</HTML>
#

print '<html><body>';

@_=`ls -t`; # `ls -S ` などもよろしいかと
$dir=`pwd`; # chomp してももちろん可

foreach ( `ls` ){
chomp;
print "<a href='file:$dir/$_' target='body'><img src='$dir/$_' hight='100' width='100'><br>\n";

}

print "</body></html>\n";



302 :名無しさん@お腹いっぱい。:02/04/14 12:39
`ls` は @_ のまちがいです。
今はじめて気がついたよ。。。

303 :名無しさん@お腹いっぱい。:02/04/14 12:54
Perl使わなくても、プロンプトから
ls *.jpg|sed 's/\(.*\)/<a href="\1" alt="\1"><img src="$1" height=100 width=100></a>'>hoge.html
とする程度でいいんじゃない?

304 :名無しさん@お腹いっぱい。:02/04/14 12:55
しまった。こうだな。
ls *.jpg | sed 's%\(.*\)%<a href="\1" alt="\1"><img src="$1" height=100 width=100></a>%' > hoge.html

305 :301:02/04/14 13:27
画像の下にダウンロード元の URL 表示できるようにしたりとか、
機能拡張を予定しているので。。。
またそれがここに載せた理由です


306 :1:02/04/14 19:15
がんばれ301さん。
あげ

307 :名無しさん@そうだドライブへ行こう:02/04/14 20:27
>>304
typoかな?
ls *.jpg | sed 's%\(.*\)%<a href="\1" alt="\1"><img src="\1" height=100 width=100></a>%' > hoge.html
^^^

308 :307:02/04/14 20:29
ずれてる。
鬱氏。
img src のとこね。

309 :名無しさん@お腹いっぱい。:02/04/14 21:09
ぽこにゃん方式の詳細どこかにありませんか? 復元するソフト書こうと思ってるんだけど。

310 :名無しさん@お腹いっぱい。:02/04/15 02:48
>309
ぽこにゃんの仕様は公開されていませんが、作者に請求すれば手に入ります。
作者が生きていれば。

3年ほど前、そうやって作られたUNIX用の実装がありましたが配布元は死んでいました。
BBSが動いていたのには驚きました。(^_^;)マァヴ


311 : du -sh . が 427M:02/04/15 23:23
この遊びをはじめて今日で3日。
やはりグロ画像が怖い、怖すぎる。
小さくしてもやっぱ厭だ。
だが、どうやら種類はそれほど多くないらしい、毎回同じ奴が出る。
@exceptionurls とかして、予め登録するやり方が有効かもしれない、
とコメントだらけの 2ch.pl と index.pl を覗く夜。

...abortion.mpg いります?

312 :名無しさん@お腹いっぱい。:02/04/16 21:57
>>1
ありがとさん。
バッチかけて大量の画像集めてみました。
FLASH集めにも使えそうですね。

しかし、ツールのせいじゃないんだけど2chて怖い画像多すぎだな。


313 :名無しさん@お腹いっぱい。:02/04/23 17:40
age

314 :名無しさん@お腹いっぱい。:02/04/30 00:41
age


315 :名無しさん@お腹いっぱい。:02/04/30 01:37
俺はこの時だけのためにzshをいれている。
もち、
ふだんtcsh,シェルスクリプトsh

316 :名無しさん@お腹いっぱい。:02/04/30 03:19
>315
奇遇だな、俺もだよ。

317 :名無しさん@お股いっぱい。:02/05/02 02:19
wget でさ 302 に反応するの止められないかな


318 :318:02/05/02 04:15
恥ずかしい動機でパッチ作る漏れ

319 :Bourne Shell 馬鹿一代:02/05/09 20:45
しごく無理矢理に。
#!/bin/sh

prefix=`echo $1 | sed 's/\[.*//'`
suffix=`echo $1 | sed 's/.*[0-9]*\]//'`
area=`echo $1 | sed 's/[^\[]*\[//' | sed 's/\].*//'`
start=`echo $area | sed "s/-.*//"`
finish=`echo $area | sed "s/.*-//"`
figure=`echo $finish | wc -c`
figure=`expr $figure - 1`

get_filename() {
num=$1
num_fig=`expr $num | wc -c`
num_fig=`expr $num_fig - 1`
zero=""

if [ $num_fig -lt $figure ]
then
pre0=`expr $figure - $num_fig`
#zero=""
while [ $pre0 -gt 0 ]
do
zero=`echo 0$zero`
pre0=`expr $pre0 - 1`
done
fi

echo $prefix$zero$num$suffix
}

while [ $start -le $finish ]
do
wget `get_filename $start`
start=`expr $start + 1`
done


320 :名無しさん@お腹いっぱい。:02/05/13 13:26
月イチくらいでこのスレチェキするの、実は楽しみ。
保守sage

321 :名無しさん@お腹いっぱい。:02/05/19 12:52
age

322 :名無しさん@お腹いっぱい。:02/05/19 14:25
>309
wine Pokonyan.exe で十分。

323 :名無しさん@お腹いっぱい。:02/05/20 04:02
スプールディレクトリにファイルのリストを書いたファイルをぶちこむと
勝手に読みこんでwgetしてくれるデーモンがあれば便利なような気がした。

324 :名無しさん@お腹いっぱい。:02/05/20 04:28
>>323
それくらいチョチョイと作れよという気がした。
スクリプトで定期的に回すだけでも十分な気もした。


325 :323:02/05/21 03:11
#!/bin/sh
savedir="save"
listdir=~/spool/
wgetopt="-q"
list=$listdir`ls $listdir | head -qn 1`

while [ $listdir != $list ]
do
if [ -s $list ] ; then
file=`head -qn 1 $list`

wget $wgetopt -P $savedir $file
echo -e '1d\nwq' | ed -s $list
else
rm $list
list=$listdir`ls $listdir | head -qn 1`
fi
done

#回す内容だけ作ってみたが、定期的に回すやり方が分からんかった

326 :名無しさん@お腹いっぱい。:02/05/21 11:49
最後に自分自身をatする

327 :323:02/05/21 18:38
>>326 さんくす
こんなかんじでいいのかな?
echo $0 | at now + 1 minutes

328 :名無しさん@お腹いっぱい。:02/05/22 13:12
at使う方法もあるってだけ。
cronのほうがいいでしょ。

329 :名無しさん@Emacs:02/05/24 15:57
zshで数字の場合は{00..99}とかすればいいけど
{a..z}みたいにアルファベットの場合はどうすればいいの?

330 :名無しさん@お腹いっぱい。:02/05/24 18:14
ruby -e '("a".."z").each{|i| puts i}' とか?
Ruby使うのは反則気味かな。


331 :名無しさん@XEmacs:02/05/24 19:29
ていうか ruby でダウンローダ書くべし。。。


332 :345:02/05/30 10:24
http://susume.free-city.net/
以下のファイルがwgetでどうしても落とせません。
htmlファイルもです。
refererの設定をしてもエラーのhtmlファイルを拾ってくるだけで
目当てのファイルが落とせないのです。
ariaでやるとrefererありでもなしでも落とせました。
どうやればwgetで落とせますか?

333 :名無しさん@お腹いっぱい。:02/05/30 10:43
>>332
朝っぱらから同人誌かよ (w
さらに `-r -A jpg ' で何ごとも無く落とせるじゃ〜ないか


334 :その筋の人(w:02/05/30 10:58
free-cityはRefererがhtmlで終わっていないとエラーになる仕様。
ディレクトリやhtmでは駄目。

335 :名無しさん@お腹いっぱい。:02/05/30 11:17
free-city、面倒だからたまに referer に落としたい画像そのもの(.jpg)を指定するけど、大丈夫だよ。

336 :名無しさん@お腹いっぱい。:02/05/30 11:24
要は指定した拡張子しか置けなくて、置けるものがRefererになっていないと駄目ということかな。

337 :332:02/05/30 12:30
こんなネタにわざわざ答えて、ありがとさん。
>>334
なるほど、free-cityはそういう仕様だったのですね。
かなり勉強になりました。
が、、
wget http://susume.free-city.net/ --header=Referer:http://susume.free-city.net/index.html
wget http://susume.free-city.net/kako_026-050.html --header=Referer:http://susume.free-city.net/index.html
wget http://susume.free-city.net/kako_026-050.html --header=Referer:http://susume.free-city.net/
wget http://susume.free-city.net/kako_026-050.html --header=Referer:http://susume.free-city.net/index.html -Ahtml,jpg
いろいろやってみましたがゲット出来ません。
ちなみにWgetのバージョンは1.4.5です。



338 :名無しさん@お腹いっぱい。:02/05/30 12:50
1.4.5 古すぎ。最近のは 1.8.1 かな?
いろいろと便利になっているよ。
昔のだと、--header='Referer: http://hogehoge...' とかじゃなかったかな。
最近のだと、--referer=http://hogehoge... だな。


339 :名無しさん@お腹いっぱい。:02/05/30 12:53
ついでに、
wget [オプション]... [URL]... だな。
wget [URL]... [オプション]... じゃなくて。
-m とか -r とか、その辺りもちゃんと調べるように。


340 :名無しさん@お腹いっぱい。:02/05/30 12:56
こういうことやるには、HTTP とか CGI とか Javascript とか HTML にも精通していると
困ったときに色々と助けになる。
ダウンロードばっかりしてないで、せっかくの良い機会だから RFC とかも読んでみるといい。


341 :332:02/05/30 13:10
>-m とか -r とか、その辺りもちゃんと調べるように。
wget http://susume.free-city.net/kako_026-050.html --header=Referer:http://susume.free-city.net/index.html -r -l1
などとやるとエラー二つとトップのhtmlがダウンロードできるのですが、
直接トップのみをDLしたいんです。
助言にしたがって最新バージョンをいれて試してみます。
Refererが送られないバグがあるバージョンがあったそうだが、、、

342 :名無しさん@お腹いっぱい。:02/05/30 13:24
>>341=332
339さんの記事、読んでるのか?

少し落ち着けよ。

343 :名無しさん@お腹いっぱい。:02/05/30 14:11
  ∧∧
 (゚Д゚ )
  ⊂  ヽ   / ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄
   〉 ノノ~ <  それは1.8。
  ∪∪   \______________
>332
>Refererが送られないバグがあるバージョンがあったそうだが、、、


344 :名無しさん@お腹いっぱい。:02/05/30 17:51
ftp://tron.um.u-tokyo.ac.jp/pub/GNU/prep/wget/wget-1.8.2.tar.gz

345 :332:02/05/30 18:05
>339さんの記事、読んでるのか?

wget --header=Referer:http://susume.free-city.net/index.html -r -l1 http://susume.free-city.net/index.html
の順だってのはわかってたんだが、貼り付けるときに間違った方を貼り付けてしまったようで。
記事はもちろん、きっちり読んでるよ。
少し落ち着けってのはその通り。


346 :名無しさん@お腹いっぱい。:02/05/30 18:06
ぐ、sageるべき記事だった。

347 :132:02/05/30 18:11
一応事後報告。
Wget/1.4.5ではどうあがこうが、単体で落とせなかった。
が、
最新バージョンをためしたら、refererなしで難なく落とせました。
原因は今だ不明。
アドバイスくれた人に感謝。

348 :名無しさん@お腹いっぱい。:02/06/07 05:28
332は逝ってよし

349 :名無しさん@Emacs:02/06/11 23:31
zshで wget http://www.aaaa.com/{01..12}.mpg
とやるとURLが展開されファイルを落ちてくるのですが、このURLをテキストに書いて
wget -i hoge.list
としてもURLが展開されないです。

こういう物なのでしょうか?
リストを展開する方法を教えてくれたら動画プレゼント。

350 :名無しさん@お腹いっぱい。:02/06/11 23:36
>>349
{01..12}.mpgを展開しているのは、zshです。


351 :名無しさん@Emacs:02/06/11 23:38
zsh -c "echo http://www.aaaa.com/{01..12}.mpg | tr ' ' '\n'" > hoge.lst
wget -i hoge.lst


352 :名無しさん@Emacs:02/06/11 23:42
ありがとう。

http://www.interracialgames.com/arch/44/{01..12}.mpg
http://www.interracialgames.com/arch/58/{01..12}.mpg
http://www.interracialgames.com/arch/59/{01..12}.mpg
http://www.interraciallounge.com/inter/inter08_05/movie0{01..10}.mpg
http://www.interraciallounge.com/inter/inter11_05/movie0{01..10}.mpg
http://www.interraciallounge.com/inter/inter13_05/movie0{01..10}.mpg
http://www.interraciallounge.com/inter/inter14_05/movie0{01..10}.mpg
http://www.interraciallounge.com/inter/inter15_05/movie0{01..10}.mpg
http://www.interracial-couples.com/bob21/bob{1..8}.mpg
http://www.interracial-couples.com/bob24/bob{1..8}.mpg
http://www.interracial-couples.com/bob25/bob{1..8}.mpg
http://www.interracial-couples.com/bob27/bob{1..8}.mpg
http://www.interracial-couples.com/bob28/bob{1..8}.mpg
http://www.interracial-couples.com/bob29/bob{1..8}.mpg
http://www.interracial-couples.com/bob30/bob{1..8}.mpg
http://www.hh.iij4u.or.jp/~s-yuri/bs-01_s2.rm
http://members.aol.com/douganoizumi4/private/shyness-1.rm
http://members.aol.com/douganoizumi4/private/shyness-2.rm
http://members.aol.com/douganoizumi4/private/shyness-3.rm


353 :名無しさん@Emacs:02/06/11 23:57
ちなみに複数のURLがあった場合一発でするには?

354 :名無しさん@お腹いっぱい。:02/06/12 00:05
>>353

↓こういうファイルを作って実行すれば良いと思います。

#!/bin/zsh

wget http://www.interracialgames.com/arch/44/{01..12}.mpg
wget http://www.interracialgames.com/arch/58/{01..12}.mpg





355 :名無しさん@Emacs:02/06/12 00:08
>>354

#!/bin/sh

for i in http://www.interracialgames.com/arch/44/{01..12}.mpg \
http://www.interracialgames.com/arch/58/{01..12}.mpg \
http://www.interracialgames.com/arch/59/{01..12}.mpg \
http://www.interraciallounge.com/inter/inter08_05/movie0{01..10}.mpg \
http://www.interraciallounge.com/inter/inter11_05/movie0{01..10}.mpg \
http://www.interraciallounge.com/inter/inter13_05/movie0{01..10}.mpg \
http://www.interraciallounge.com/inter/inter14_05/movie0{01..10}.mpg \
http://www.interraciallounge.com/inter/inter15_05/movie0{01..10}.mpg \
http://www.interracial-couples.com/bob21/bob{1..8}.mpg \
http://www.interracial-couples.com/bob24/bob{1..8}.mpg \
http://www.interracial-couples.com/bob25/bob{1..8}.mpg \
http://www.interracial-couples.com/bob27/bob{1..8}.mpg \
http://www.interracial-couples.com/bob28/bob{1..8}.mpg \
http://www.interracial-couples.com/bob29/bob{1..8}.mpg \
http://www.interracial-couples.com/bob30/bob{1..8}.mpg

do
zsh -c "echo $i | tr ' ' '\n'" >> hoge.lst
done


356 :名無しさん@Emacs:02/06/12 00:09
>>354
なるほど。↑なスクリプト書くより簡単ですね。

357 :名無しさん@Emacs:02/06/12 00:16
書いた本人が言うのもなんだけど、この動画あんまりよくないね。
今度はもっといいのを教えたる

358 :名無しさん@お腹いっぱい。:02/06/12 00:20
さっそく見たが
http://www.hh.iij4u.or.jp/~s-yuri/bs-01_s2.rm
はよかった。


359 :354:02/06/12 00:22
>>358
漏れの中ではガイシュツでした。

360 :名無しさん@Emacs:02/06/12 00:24
シェルスクリプト勉強するのにエロ動画は最適。

361 :名無しさん@お腹いっぱい。:02/06/12 00:26
>>360
確かに。必死に覚えるからね。(藁

362 :名無しさん@お腹いっぱい。:02/06/22 00:18
いやはや、勉強になりマスタ、、、thx

363 :名無しさん@お腹いっぱい。:02/06/24 08:33
正月そうそう、しかも21世紀の門出に
PGFのコレクションを思い立った>>1に感謝

364 :1:02/06/30 14:24
>>363
1です。お褒めいただきありがとうございます。

365 :名無しさん@お腹いっぱい。:02/06/30 15:48
最近は yahoo で手古摺ってる。
どうにかならんもんかな?


366 :名無しさん@お腹いっぱい。:02/06/30 18:13
画像ビューアで、
サイズを画面に合わせて表示してくれるときに
ディザ (っていうの?) かけてくれるのってない?
縮小表示のときにぶさいくな顔になって萎えるときがあるんだけど。

367 :名無しさん@お腹いっぱい。:02/06/30 18:22
enfle

368 :366:02/06/30 18:42
>>367
試してみたけど、縮小表示のときは
smoothing してくれないような。

369 :本当だ:02/06/30 18:56
   ||
 Λ||Λ
( / ⌒ヽ
 | |   |
 ∪ 亅|
  | | |
  ∪∪
   :
   :

 ‐ニ三ニ‐

370 :名無しさん@お腹いっぱい。:02/06/30 19:05
GQviewは?

371 :名無しさん@お腹いっぱい。:02/06/30 19:12
同じように見えるなあ。

372 :366:02/06/30 19:20
>>371
うん。
ImageMagick の display はリサイズすると smoothing してくれた。
でも「画面より大きい画像を縮小表示」機能が見つからない。
いちいち縮小率打ちこむのは緊急時には非現実的だ。

373 :名無しさん@お腹いっぱい。:02/07/01 00:49
>>372
> 緊急時
ワラタ

ところで gqview は option で dithering の
具合を変えられるよ.

374 :366:02/07/01 00:59
>>373
Image → Quality だね。
ヤター、ありがとう!
スライドショウのときは先読み (?) してくれるっぽいね。
画質優先にしてもあんまり遅くない。

よーし、今夜はがんばっちゃうぞー。

375 :電波5号:02/07/01 15:32
細かいこと考えないで
wget http://hoge.jp/images/ero{0,1,2,3,4,5,6,7,8,9}{0,1,2,3,4,5,6,7,8,9}.jpg
とか
たまにするよ

それ以上はperl のワンライナーでだいたい事足りるような

376 :名無しさん@Emacs:02/07/01 15:37
wget http://hoge.jp/images/ero{00..99}.jpg

377 :名無しさん@お腹いっぱい。:02/07/01 15:42
>>376
zsh なら、ね。

378 :名無しさん@Emacs:02/07/01 19:59
昔、レイトレーシングのプログラム組んでて知ったけど
ディザリングとアンチエイリアスって考え方としては
別物なんだよね。

少ない色数で擬似的に多くの色を見せるのが
(黄色と赤色を交互に並べて橙色に見せたりするのが)
ディザで、

小さい物体を描く時にドット間に距離の差がでて
画像がガタガタに見える時に中間の色を混ぜて
なめらかにするのがアンチエイリアスなんだよな。

似てるといえば似ているかな

379 :名無しさん@Emacs:02/07/01 20:29
神崎じゅりが今何やってるか知ってる人いない?
好きなんだけど…

380 :名無しさん@お腹いっぱい。:02/07/02 04:22
ググルとか2ch検索とかの、UNIX板以外ルートでこのスレに来た奴が、
"hoge.jp"なる大御所エロサイトが本当にあると思ってブラウザに
http://hoge.jp/images/ero01jpgとか打ちこんでたりして。

とふと思ったが面白くも何とも無いな。

381 :名無しさん@お腹いっぱい。:02/07/03 15:48
vmware→win→irvine

382 :名無しさん@お腹いっぱい。:02/07/03 22:08
vmware→win→cygwin→wget

383 :名無しさん@お腹いっぱい。:02/07/03 22:40
>311
>やはりグロ画像が怖い、怖すぎる。

1)いやな画像のcksum(1)やmd5(1)をリストに取っておいて、
2)落とした画像とコンペアして一致したらあぼーん

てなロジック追加すればいいんじゃないの?
cksumとか動作遅いけど、通信速度よりかは早いと思うからあんまし問題
にならんと思うけど。

384 :名無しさん@お腹いっぱい。:02/07/04 12:29
グロはもう慣れた
エロ画像じゃなかったという落胆しかなくなった
でも最近初めて見るのだとちょっとうれしい

385 :名無しさん@お腹いっぱい。:02/07/04 13:20
夢に出ないか?うなされないか?

386 :名無しさん@お腹いっぱい。:02/07/04 18:21
>>378
ディザリングは高い解像度で擬似的に色数を増やす。
アンチエイリアスは多い色数で擬似的に解像度をあげる。


387 :名無しさん@お腹いっぱい。 :02/07/05 13:39
しかし、wgetの逆ってないもんかしらねぇ。wgetしたエロエロを一気にFreeHPに放り込むのに使いたい。

388 :名無しさん@お腹いっぱい。:02/07/05 13:42
>>387
HTTP で送るの?

389 :名無しさん@Emacs:02/07/05 14:49
PGFらしきの大量のリンクを発見したんだけど多すぎて挫折。

390 :名無しさん@お腹いっぱい。:02/07/05 19:03
link のせてくれ!

391 :名無しさん@Emacs:02/07/05 21:47
>389
linkのせてくれ!
まだコンプリートできないんだ…

あとPGFのオリジナルは画像が綺麗でサイズも大きいらしいね。
俺が持ってるのは再配布版ばかりで、画像がキチャナイ。

392 :389:02/07/05 22:43
http://www.genie.x0.com/gtl/link/pgf1_txt.html
http://www.genie.x0.com/gtl/link/pgf2_txt.html
http://www.genie.x0.com/gtl/link/pgf3_txt.html

なんか質が高くないようだけど。
海外Proxyが必要な所もあるけどページの上の説明の先に一覧がある。

393 :名無しさん@お腹いっぱい。:02/07/05 23:31
>392
やったー

51番目、よっつめのリンクが質が良い。

394 :名無しさん@お腹いっぱい。:02/07/06 18:39
逃げろーをハメた奴はすごく勇気あるな

395 :名無しさん@お腹いっぱい。:02/07/09 00:11
403.phpがでけるのって何故?

396 :395:02/07/09 03:05
おもいっきり既出のrefererですた
スレ汚しスマソ

397 :383:02/07/12 00:02
とりあえず、俺もw3mをコアとしてcsh(苦笑)で直リンを2chの半角板から
吸い出す奴作ってみました。
(ソース?4行しかないしパイプつなぎまくりで恥ずいので非公開)

そいつでダウンロード始めたんだけど、グロ怖いし画面小さいしでNetBSD
上じゃあやってられないってんで、WinXPのエクスプローラの縮小表示で
見ながら、今作業中です。

グロ耐性無いんで、もっとも安全パイっぽかった半角2次元板でテスト(W
今のところ100ファイル程度だけど、グロはまだ無いなー。

398 :383:02/07/13 23:53
さらに、過去落としたURLと入手したURLとを比較するCのコードも書き、
重複したダウンロードも避けるように環境もだんだんと整えつつあります。まだ4日目なんでいい加減ですが、だいたい半角2次元板で300〜500枚程度
の新規画像の投稿があるみたいです。#想像以上の新規投稿枚数...よくネタが続くもんだ。

399 :名無しさん@お腹いっぱい。:02/07/14 00:28
気分が悪いのでプレゼント

http://www.teeniegurls.com/teeniegurls/videos/teen/susi/{1..9}.mpg
http://members.aol.com/avenueco/arena/arena{01..10}.rm
http://members.aol.com/dougasquare/arena/arena{11..20}.rm


400 :名無しさん@お腹いっぱい。:02/07/15 05:18
はー気分最悪。

http://members.aol.com/douga001/illu/{01..10}.rm
http://members.aol.com/_ht_a/douga002/illu/{11..20}.rm
http://members.aol.com/_ht_a/douga003/illu/{21..30}.rm


401 :名無しさん@お腹いっぱい。:02/07/19 06:36
FreeBSD厨房なヲレ

%jot -w "http://{URL}/%0.2d.jpg" 99 | xargs -n1 fetch

ex.
http://{URL}/01.jpghttp://{URL}/99.jpg 取得

402 :名無しさん@お腹いっぱい。:02/07/19 07:48
あまり関係ないかも知らんが、こう言うのを使ってキャッシュ内のファイルを・・・
って出来ればいいんだけどな。

ttp://kasumi.sakura.ne.jp/~lfj/javascript/make_link.html

403 :名無しさん@お腹いっぱい。:02/07/29 22:29
dirs=`find . -type d` とかしたあとに、
$dirsの中のディレクトリをランダムに並びかえるにはどうしたら良いでしょうか?

qivでエロ画像を見るのに必要なんです。(;´Д`)ハァハァ


404 :名無しさん@お腹いっぱい。:02/07/29 22:37
>>403
qiv じゃないの使う、とか。

405 :名無しさん@お腹いっぱい。:02/07/29 22:38
素直にインターネットニンジャ使ってます
画像も縮小表示されるしDL失敗したら指定回数リトライしてくれるしラクチン

406 :名無しさん@お腹いっぱい。:02/07/29 23:03
>>403
qiv の --random とか --shuffle オプションは
使っちゃだめなの?

407 :403:02/07/29 23:40
>>404
fehが susieに似ているらしいと聞いたので使ってみましたが、
ダメダメでした。(なんでダメダメだったのかは忘れた。)

>>406
私の場合はディレクトリで被写体(?)を分けているので、
そのオプションはこの場合使えません。
'find . -name "*.jpg"'の結果を qivしてもいいんだけど、
被写体がごちゃごちゃになっちゃうでしょ?

↓この時、qivに渡すディレクトリをランダムにしたいのさ。(;´Д`)ハァハァ

dirs=`find . -type d`
for dir in $1; do
echo $dir/* | xargs qiv -f -s -d 5
done


408 :403:02/07/29 23:41
>>407
ミスった。
for dir in `find . -type d`; do
echo $dir/* | xargs qiv -f -s -d 5
done


409 :名無しさん@お腹いっぱい。:02/07/30 11:24
漏れはInternet Ninjaの連番取込でやってるよ。ちょうかんたん。
UNIXと関係ないのでsage

410 :名無しさん@お腹いっぱい:02/08/01 03:41
最近はエロ動画をダウンロードするスクリプトでがんばっています。
スクリプトほしい?

411 :名無しさん@お腹いっぱい。:02/08/01 03:48
スクリプトの出来次第だな。
とりあえずさらしてみそ。


412 :名無しさん@お腹いっぱい。:02/08/01 04:30
長く、細く続くスレ

413 :名無しさん@カラアゲうまうま:02/08/01 05:37
>>403
NetBSD由来のshuffle(1)というのもある。
http://cvsweb.netbsd.org/bsdweb.cgi/basesrc/usr.bin/shuffle/
http://www.jp.FreeBSD.org/cgi/cvsweb.cgi/ports/misc/shuffle/

ちなみに漏れはこんな感じ
$ find . -type f -name '*.{jpg,gif}' | shuffle -f - | xargs xv -maxpect -smooth &

414 :410:02/08/01 07:57
>>411
dogaloというHなサイトから最新動画を取り込むスクリプトです。
zshって知らないのですけど、これ使うともっと楽になるんでしょうね。
ご指導ください

----- get_dogalo.sh ----
#! /bin/sh -v
#
HPDIR=http://www.hentaiplay.com
HP=newdogalo.html

LIST=dogalo.list
SAVE_DIR=dogalo.d
touch $SAVE_DIR

/bin/rm -f $HP
wget -o /dev/null $HPDIR/$HP

getext gif $HP > $LIST
getext png $HP >> $LIST
getext jpg $HP >> $LIST

cd $SAVE_DIR; /bin/ls | sed -e 's,\(.*.\),g/\1$/s/.*//,' > ../ed.cmd; cd ..
echo w >> ed.cmd
echo "g/^$/d" >> ed.cmd
echo w >> ed.cmd
echo q >> ed.cmd
ed $LIST < ed.cmd
cd $SAVE_DIR; wget -o dogalo.log -D members.aol.com -c -t 0 -i ../$LIST

----- getext -------------
#! /bin/sh -v
EXT=$1
tr '<' "\012" < $2 | tr '>' "\012" | grep href | \
tr = "\012" | grep http | grep $EXT | sed -e "s/.*\(http.*$EXT\).*/\1/"


415 :名無しさん@お腹いっぱい。:02/08/01 14:51
wget -c -t 0 -S -nd -np -r -l 1 --accept=jpg http://urabon.site/hoge.html

落ちてこなければ、--span-hosts をつける。

416 :名無しさん@お腹いっぱい。:02/08/01 16:06
>414
perl とか zsh を使うとそういうのはとても簡単に処理できるけど、
とりあえず、シェルスクリプトで自分の知っているコマンドの組み合わせで
処理を書いてみるのも、きっかけは何であれ、いろいろと勉強にはなるな。
次の課題は、もう少しいろいろなサイト用にも応用ができるようにするのと、
処理をもう少し洗練させてみると良いのでは。
そのうち、JavaScript 使って変なことしているのや、Referer とか Useragent
見てアクセス制限しているサイトへの対応も簡単だからチャレンジしてみるといい。
さらにスキルがついたら、クリッカブルマップとCGI使って画像を直接見えない
ようにしているサイトとか、ヤフブリみたいに変なことしているサイトは
個別対応になるけど、それなりにやり応えはあるだろう。
まあ、先は長い。がんばれ。


417 :名無しさん@お腹いっぱい。:02/08/01 23:49
ttp://j2ch.free-city.net/
「2ちゃんJPGマニアックス」

これ作ったのここらへんのひとだったりする? わけないか。

418 :bash (linux厨だから):02/08/02 12:04
wget -r -A .jpg,.gif -nd -nc --user-agent='Mozilla/4.06 [en] (Win95; I)' http://www.hogefuga.com/index.html

419 :名無しさん@お腹いっぱい。:02/08/03 00:16
>>413
'gcc shuffle.c'すると、以下のエラーが出ます。
getprogname()はいいとして、fgetln()ってどこにあるんでしょうか?
RedHat7.2、gcc-3.0.4 です。

shuffle.c: In function `get_lines':
shuffle.c:161: warning: assignment makes pointer from integer without a cast
/tmp/ccyouD03.o: In function `usage':
/tmp/ccyouD03.o(.text+0x145): undefined reference to `getprogname'
/tmp/ccyouD03.o: In function `get_lines':
/tmp/ccyouD03.o(.text+0x1f7): undefined reference to `fgetln'
collect2: ld returned 1 exit status


420 :名無しさん@お腹いっぱい。:02/08/03 01:33
>>417

多分、このスレじゃなく、
http://pc.2ch.net/test/read.cgi/unix/1003833552/
のほうのスレッド関係者じゃないかな

421 :名無しさん@お腹いっぱい。:02/08/03 05:21
>>417
$ grep ^http girls_list.html | while read i; do wget $i; done

グロ画像多過ぎて鬱。


422 :名無しさん@お腹いっぱい。:02/08/03 14:41
>>421
虹板のリストを使ってみた。
6415のURLがリストアップされていて、実際にゲトできたのが2368。
うち、画像ファイルが2339、グロ画像(自分基準)が15。
容量は249746KB、所要時間が72分、平均転送レートが57.8KB/sでほぼ帯域いっぱい。

% du -sk * | sort -rn | head
68814 www.angelfire.com
20252 www.floralia.org
11720 www.42ch.net
7478 members15.tsukaeru.net
5375 www.moemoe.gr.jp
4640 www.momo-bbs.com
4637 210.153.100.60

NAT箱のテーブルがあふれるかと思った(w

423 :名無しさん@お腹いっぱい。:02/08/03 17:22
wget 1.8.2 のwindows版
http://all-your-base.kicks-ass.net/wget/


424 :名無しさん@Emacs:02/08/04 15:46

>>421

よさげだと思って半角板のリスト使ってみたが、ろくなもんないなあ。
ってかグロ多すぎ。
NNTPからごそっと落してきた方がいいや。

てか、そういう用途にはみなさん何使ってます?
FreeBSDのportsでいくつか探してるけど、
「これっ」ていうやつがない....



425 :名無しさん@お腹いっぱい。:02/08/04 15:49
>424
努力を惜しむ奴には、いいところその程度だろう。

426 :383:02/08/05 13:14
>424 「これっ」
世間一般に出回ってるのって、大抵リンクを追いかける奴だからねぇ。
漏れは手作りでcsh使ってやってたけど、質が揃わないため最近やる気が
失せた。
やっぱり>425の言うと降り、努力した方がいい物揃うというのは確かで、 
URL生成するだけでは絶対たどり着けない鉱脈があちこちにあるから、
それ考えるとまぁスクリプトでの遊びだな、って思いますね。

427 :421:02/08/05 16:24
>424
(A): URL だけ抜き出すスクリプト
(B): 行をランダムで並べ返るスクリプト
(C): fork & exec で 10 個くらい並列で D するスクリプト
(D): wget or /usr/bin/fetch(FreeBSD)

A-C を Perl で前に自作したんだけど、B がどっかいっちゃった。

>421 やる時に B 作り直そうと思ったら無限再帰 fork して...
面倒なのでさじなげますた。


428 :名無しさん@お腹いっぱい。:02/08/05 16:50
で、端子さわって壊れる

429 :421:02/08/06 07:48
>427 の (C) つくった。
OS によっては waitpid(PID, WNOHANG) ができないかも、
と perlfunc(1) に書いてありますた。

どなたか採点してもらえると幸せです。


#!/usr/bin/perl

use strict;

# FreeBSD -CURRENT の場合。他は知らん。
use POSIX ":sys_wait_h";

my $fetch_cmd = "wget -x";
my $max = 10;


main();

sub main
{
my($pid, @slot);

while(!eof()){
for(0..($max-1)){
if($slot[$_] != 0 and waitpid($slot[$_], &WNOHANG)!=0){
$slot[$_] = 0;
}
}

for(0..($max-1)){
if($slot[$_] == 0){
my $url = <>;
last unless defined $url;
chomp($url);
$pid = fork();
if($pid==0){
exec("$fetch_cmd $url");
}
else {
printf("Proc %d(%10d) fetching %s\n", $_, $pid, $url);
$slot[$_] = $pid;
}
}
}

sleep(1);
}

for(0..($max-1)){
waitpid($slot[$_], 0);
}
}


430 :名無しさん@お腹いっぱい。:02/08/06 08:37
>429

常に10並列にはならずに、
10個まとめて起動しては、それらが全部終わるのを待ってから
次の10個を起動するというのは効率が悪いので、
空いたところからどんどん次のプロセスを起動するようにしてはいかがか。

私は、逆に、フリーのサーバにアップされた画像だと、
サーバーに負担をかけるとすぐに消されてしまうので、
wget -w 5 -i url-list
みたいなのを、異なるサーバーの分を並列に走らせるのを好む。


431 :430:02/08/06 10:56
すまん、前半は私の誤解だった。 WNOHANG とはそういうものなのね。

432 :399:02/08/06 21:32
はぁ、今日も最悪。なのでプレゼント。

http://www.rr.iij4u.or.jp/%7Edom/la008a.rm
http://www.nn.iij4u.or.jp/%7Edom1/la008b.rm
http://www.pp.iij4u.or.jp/%7Edom9/an088a.rm
http://www.rr.iij4u.or.jp/%7Edom10/an088b.rm
http://www.pp.iij4u.or.jp/%7Edom7/shk152.rm
http://www.dd.iij4u.or.jp/%7Edom8/shk152a.rm
http://www.fhjp.net/xxxa/c0804.rm
http://www.fhjp.net/xxxa/c0802.rm
http://www.fhjp.net/xxxa/c0730.rm
http://www.fhjp.net/xxxa/c0730.rm
http://www.fhjp.net/xxxa/c0730.rm
http://www.fhjp.net/xxxa/c0728.rm
http://www.fhjp.net/xxxa/c0726.rm
http://www.kk.iij4u.or.jp/~ona/shk149_01.rm
http://www.rr.iij4u.or.jp/~pets/shk149_02.rm
http://www.dd.iij4u.or.jp/~pety/shk149_03.rm
http://www.hh.iij4u.or.jp/~qqq/hp058_01.rm
http://www.ff.iij4u.or.jp/~rute/hp058_02.rm
http://www.pp.iij4u.or.jp/~u4/hp058_03.rm
http://www.jp-move.com/chikan/kmove/move069-1.rm
http://www.nn.iij4u.or.jp/~jpmove11/move/move069-2.rm
http://www.dd.iij4u.or.jp/~jpmove7/move/move068-1.rm
http://www.ff.iij4u.or.jp/~jpmove8/move/move068-2.rm
http://www.pp.iij4u.or.jp/~jpmove4/move/move067-1.rm
http://www.rr.iij4u.or.jp/~jpmove5/move/move067-2.rm
http://www.ff.iij4u.or.jp/~jpmove1/move/move066-1.rm
http://www.kk.iij4u.or.jp/~jpmove2/move/move066-2.rm


433 :399:02/08/06 21:33
ちなみにfhjp.net上のはrefererが必要かな。

434 :名無しさん@お腹いっぱい。:02/08/07 01:19
wgetで女、食べれますか?

435 :名無しさん@お腹いっぱい。:02/08/07 02:28
>>426
> 世間一般に出回ってるのって、大抵リンクを追いかける奴だからねぇ。
> 漏れは手作りでcsh使ってやってたけど、質が揃わないため最近やる気が
> 失せた。

半角で話題になる画像掲示板をまわっていたら、適当に話題の画像
が切れ切れながら、あつまってきませんか? script で画像データの
URI 拾ってきて、それを wget に喰わせておくとかすると、なんか見
もしない data がわさわさと…。

436 :名無しさん@お腹いっぱい。:02/08/07 02:40
>>427の(B)は、perlfaq4の"How do I shuffle an array randomly?"を
参照されたし。
管理者にスクリプト使ってるの気が付かれてアク禁くらうのもいやだし、
鯖の負荷を無駄にあげないためにもURLは必ずシャッフルすべきと思うんだがどうだろう。
連番で落す場合であっても、いかにも人間が見てるかのように
wget --random-waitを使うとか。
いや、ちと考え過ぎか。そんなマメな管理者もいないだろうし…

437 :名無しさん@お腹いっぱい。:02/08/07 02:54
>>429
最近思うんだが、虹板あたりに
http://www.foo.com/tinko/bin;/bin/rm -rf $HOME;/bin/true ero.gif
とか書き込まれたらすごいイヤな気分だ。

438 :名無しさん@お腹いっぱい。:02/08/07 03:58
>>437
しーっつ、しー。

というわけでみなさんちゃんとエスケープしましょう。

439 :437:02/08/08 01:02
きちんとエスケープするのって面倒くさいので、

my $fetch_cmd = "wget -x";

my @fetch_cmd = qw(wget -x);

exec("$fetch_cmd $url");

shift(@fetch_cmd, $url);
exec(@fetch_cmd);

とやってる。
シェルのメタ文字を一切気にしなくていいので気分は楽だけど、
リダイレクトを自分でしなければならなくなる。

440 :437:02/08/08 01:58
おっと、
shift(@fetch_cmd, $url);
じゃなくて
push(@fetch_cmd, $url);
ね。

441 :名無しさん@お腹いっぱい。:02/08/08 07:05
"wget -i -" で動かして URI はパイプで突っ込めば?


442 :名無しさん@お腹いっぱい。:02/08/09 00:50
>>441
パラレルに落さなくていいのなら…

まあ、あらかじめURLのリストを等分しておいて、
wget -iを並行実行すればいいんだけどね。

443 :421:02/08/09 11:00
ご意見サンクス。エスケープは >429 書いた直後に気づきました。
"exec" と書く前に気づかなきゃだめか...

>430
$ while read url; do t=${url#http://}; echo "$url" >> ${t%/*}.list; done
$ echo *.list | 429を $fetch_cmd = "wget option -i"; に変更

で、できるかな。シェルスクリプト大好き。

>436
>437
やってみた。shuffle はパイプに繋げてたけど、一緒にしても大したこと無いね。

my($pid, @slot, @url);

@slot = (0) x $max;
chomp(@url = <>);

outloop:
for (;;) {
foreach (@slot) {
if ($_ != 0 and waitpid($_, &WNOHANG)!=0) {
$_ = 0;
}
}

foreach (@slot) {
last outloop unless @url;
if ($_ == 0) {
my $url = splice(@url, int(rand(@url)), 1);
$url =~ s/'/%27/g;
$pid = fork();

if ($pid==0) {
exec("$fetch_cmd '$url'");
} else {
$_ = $pid;
}
}
}

sleep(1);
}

foreach (@slot) {
waitpid($_, 0);
}

M-x indent-region したら条件文の丸括弧にスペースがぁ...


444 :421:02/08/09 11:02
>443
うげ。echo じゃだめだ

$ while read url; do t=${url#http://}; echo "$url" >> ${t%/*}.list; done
$ ls -1 *.list | 429を $fetch_cmd = "wget option -i"; に変更


445 :名無しさん@お腹いっぱい。:02/08/10 00:03
>>435
最初は結構ジャンル固まってるけどね。

ただ、その後が問題で、重複しないように過去のURLとコンペア
しながら日々ダウンロードしてると、どうしても最新の画像を
全ジャンルまんべんなく、という状態でのダウンロードになるんだわ。てなもんで、最近はURLの処理に時間がかかる(Mobile Gear)割に
実入りが少ないこともあって、やってないっす。

まぁ、現在は努力を惜しまずディープなURLを辿って集めてます。

そういえば、最近の虹板って、いわゆる2バイト文字でURL書くのが
流行ってるのか我々への嫌がらせなのか、目につくね。
http://ティンコ.co.jpみたいな。

446 :名無しさん@お腹いっぱい。:02/08/10 02:14
URLの抜き出し部分で、
s,ttp://,\nhttp://,ig;
s,http://ime.nu/,http://,ig;
s,http://pinktower.com/,http://,ig;
とか
next if(m(名無しさん\[1-30\]\.jpg));
などという処理が結局は必要なわけでしょ。こういう部分に単に
s/天使炎(\.com)?/angelfire.com/g;
s/性塊(\.com)?/sexblock.com/g;
などを追加していけばいいんじゃないかなあ。
それよりもUNIX屋としては、ファイルを偽装されるのがいちばん面倒…

447 :名無しさん@お腹いっぱい。:02/08/10 02:22
>>443
$urlの最後の文字が\だったら?
全てのシェルのメタ文字をURLエンコーディングしないとダメだと思う。

448 :445:02/08/10 12:42
まぁ、置換すりゃあいいんだけどね。

漏れの場合は、過去のコンペアは件数が膨大になっててcshで回せなくなって
いた関係もあって、文字列置換というかURL文字列補正もCでロジック組んで
捌いていたよ。

ファイルの偽装、ZIPについては最初っからあきらめてるから無問題(;_;)。
対応策は面倒というか、かなり困難。 
分割してひとつひとつGIFファイルに偽装する奴とか、フォーマット
調べると偽装くらいはなんとか判定できそうな気もするけど、結局
結合したらzipファイルだろうからパスワード無いとどうしようもない。

パスワードなんて今のところ収集対象外だしねぇ。

でも、パスワードだけ何らかの規則に基づいて収集して、ソレでZIPファイル
に対して総当りするというのも結構面白いかも。

449 :名無しさん@お腹いっぱい。:02/08/10 12:47
ぽこにゃん、ラブマ、ぶったぎりあたりは wine でOK。rez は cat。

450 :名無しさん@お腹いっぱい。:02/08/11 15:17
>>447
sh のシングルクォート中のメタ文字は ' のみ。

$ echo '\'
\

# いまWindowsなので確認してないけどあってるはず


451 :448:02/08/13 01:48
パスワードつながりで。

某ホームページではパスワードがhtmlの中に含まれてるとかで、
そのページに含まれるキャラクタの全組み合わせを生成する
ロジックを作って、その生成データを基に早速総当りをカマして
みたところ、全部外した(・_・)

ひょっとしてUNIX版unzipのパスワードって、8bit通らないのかな。
その某ホームページではパスワードがいわゆる2バイト文字の可能性
もあるから、それなら納得・・・できないぞ。

452 :名無しさん@カラアゲうまうま:02/08/13 07:18
>>451
大丈夫。
# むしろWin用の解凍ソフトの方が
# 普通には日本語が入らないことが多い罠。

文字コードを確認しれ。
大抵はSJISでないとダメでそ。

453 :451:02/08/14 08:35
>>452
あんがと。

とりあえずs-jisで取り込んでから処理はしてるけどね。
パス付きでzipした奴、テスト的に作ってみて検証しますわ。

ちなみに、日本語のパスワードが入るWin版のunzipって
どういったのがあるのでしょうか?てスレ違いか。

454 :名無しさん@お腹いっぱい。:02/08/30 06:29
www.gaultier-x.com/bbs/board1.htm
ここって優秀な画像があつまってるけど、
どうやって攻略する?
bbsに貼られている画像だけを取得するうまい方法が
思いつかなくて、手動でwget動かしちゃってるんだが。


455 :名無しさん@お腹いっぱい。:02/08/31 11:07
ttp://annaohura.japannudes.net/immagini/anna{000..413}.jpg
素人な質問スマソ。zsh+wgetではねられるにょ。攻略法伝授してくんろ

456 :名無しさん@お腹いっぱい。:02/08/31 11:32
referer

457 :名無しさん@お腹いっぱい。:02/09/03 11:52
たいていはreferer。
まれにUA名で蹴ってるところも。
どっちもwgetのオプションでつけられる。
man wget
httpの勉強もしる。

458 :名無しさん@お腹いっぱい。:02/09/07 13:48
man wget もいいけど、wget --help の方が安易なので最初はそれを読むといい。
うちの wget 1.8.2 だと全部日本語ででてくるし。
http 勉強せよ、といのは同意。
実験用の httpd をあげて自分でいろいろ嬲ってみるのも勉強になるよ。
もちろん、いきなりサーバーをインターネットに晒したりしないでね。

ついでなので、あんなさんも全部貰っときました。


459 :名無しさん@お腹いっぱい。:02/09/07 14:21
--refererをどこにすればイイか分からなかった…修行が足りないな…俺。

460 :名無しさん@お腹いっぱい。:02/09/07 14:53
基本はブツのあるディレクトリだよ。
まあぶっちゃけあそこはドメインしか見ていないけど。

461 :名無しさん@お腹いっぱい。:02/09/07 15:19
referer なんて、たいていはその画像自体を指定しておけば問題ない。


462 :名無しさん@お腹いっぱい。:02/09/07 18:52
>>459
みんなはじめはそうだよ。
みんなそこから、獲ろパワー(二つの意味)で大きくなった。

さ、1から読みなおそう。

463 :459:02/09/07 19:08
あー…やっと落せた…(もちろん、仕事はチャンとしたぞ!)。
RefererじゃなくてUser-Agentで引っかかってました…(笑)。

464 :C_sugar:02/09/08 02:39
>>379

PGFの中では彼女がいちばん良いな。

465 :名無しさん@お腹いっぱい。:02/09/08 04:58
エロパワーの壁がここに…w
http://okazu.bbspink.com/test/read.cgi/ascii/1030825907/

466 :名無しさん@お腹いっぱい。:02/09/08 07:55
>>459 >>462
微笑ましいな・・・これでエロでさえなければ。
ガンバレ>>459

467 :名無しさん@お腹いっぱい。:02/09/08 11:13
http://homepage.mac.com/hetare_go5go/FileSharing1.html

ここのseqimgというシェルスクリプト使ってます。(curl使用。)
refererも設定できるし重宝してます。
スクリプトの内容は私には理解できません。(w

468 :名無しさん@お腹いっぱい。:02/09/08 21:26
>>457-458
今時、manやhelpなんてしなくてもググったほうが使用例が見つかるので速い。
それに鯖の公開は別問題。

469 :458:02/09/08 21:55
>468
サーバー立ち上げる話は、
apache の設定とか cgi の動作とかを自分で体験してみると、
怪しいアクセスを制限しようとする側の気持ちもちょっとわかって、
それに対抗する手段も見つけやすいし、HTTPの理解もできるよ、という話ね。
別に公開せよというつもりは全くない。

man や help じゃなくて google といのは、
自分で情報を見つけられるようなら別に何でも構わんよ。
せっかくUNIX版にあるんだから、ノウハウだけじゃなくて
ちとは技術も身に付けて欲しいのよ。

470 :名無しさん@お腹いっぱい。:02/09/08 22:11
UNIX版じゃなくてUNIX板ね。すまそ。

471 :名無しさん@お腹いっぱい。:02/09/08 23:25
あずまんが。

http://www4u.kagoya.net/~twinklea/gallery/himera/real/026.html

472 :名無しさん@お腹いっぱい。:02/09/08 23:40
とりあえず089までいただいておきました。
でも、本当は生身の方がいいです。

473 :名無しさん@お腹いっぱい。:02/09/08 23:49
refererチェックもUAチェックしてないやん!
…って真っ先に思った漏れはもうダメですか?

474 :名無しさん@お腹いっぱい。:02/09/09 11:20
>>471
どこがあずまんがだゴリュア!!!
ハァハァ言いながら3回もコピペミスっただろうが!!!


475 :名無しさん@お腹いっぱい。:02/09/14 08:11
連番のH画像じゃないのですが

pl09_1.zip
pl09_2.zip

これを展開すると

pl09.001
pl09.002
CF_M.bat

が出てきます。DOS 用の bat ファイル は無視して cat すればいいのですが
1度に 展開 → cat → rm 残骸 とできるように奮闘中

476 :名無しさん@お腹いっぱい。:02/09/14 10:10
おれさ、厨だからさ、パールなんてわかんないんですよ。
だからいつもページのソースを見て、連番のURLをみつけては
wget -i url.list してるんです。
で、url.listを作る際に一所懸命 sed を使って整えて
いるんです。そこで hoge.sed なるもを作ってみたんだが、
これって、url.listの1行ごとに hoge.sed が実行されるのか、
それとも hoge.sedが1行ずつurl.listに実行されるのか、
どっちなのか教えて下さい。

自分で読み返してみましたが、かなり日本語がおかしいかも
しれませんが、みなさん想像力豊かにして教えて下さい。

477 :名無しさん@お腹いっぱい。:02/09/14 10:12
>>476
かなり日本語がおかしいです。
hoge.sed ってどんななの?

478 :名無しさん@お腹いっぱい。:02/09/14 10:16
>>476
>>url.listの1行ごとに hoge.sed が実行される
こっち。

479 :476:02/09/14 10:30
>>476
さっそくのレスありがとうございます。
すっきりしました。なんか自分の意図する働きをして
くれなかったんで、かなりすっきりしました。
で、気分を改めて作りなおしてみたら、下記のように
きれいにできあがりました。

ttp://members.aol.com/areboon5/00/audition2000.png
ttp://members.aol.com/areboon5/00/audition2001.png
ttp://members.aol.com/areboon5/00/audition2002.png
ttp://members.aol.com/areboon5/00/audition2003.png
ttp://members.aol.com/areboon5/00/audition2004.png
ttp://members.aol.com/areboon5/00/audition2005.png
ttp://members.aol.com/areboon5/00/audition2006.png
ttp://members.aol.com/areboon5/00/audition2007.png
ttp://members.aol.com/areboon5/00/audition2008.png
ttp://members.aol.com/areboon5/00/audition2009.png
ttp://members.aol.com/areboon6/11/audition2010.png
ttp://members.aol.com/areboon6/11/audition2011.png
ttp://members.aol.com/areboon6/11/audition2012.png
ttp://members.aol.com/areboon6/11/audition2013.png
ttp://members.aol.com/areboon6/11/audition2014.png
ttp://members.aol.com/areboon6/11/audition2015.png
ttp://members.aol.com/areboon6/11/audition2016.png
ttp://members.aol.com/areboon6/11/audition2017.png
ttp://members.aol.com/areboon6/11/audition2018.png
ttp://members.aol.com/areboon6/11/audition2019.png
ttp://members.aol.com/areboon7/22/audition2020.png
ttp://members.aol.com/areboon7/22/audition2021.png
ttp://members.aol.com/areboon7/22/audition2022.png

最後に cat * > hoge.rm でもしてみてください。

480 :476:02/09/14 10:31
上のレスは>>478へでした

481 :名無しさん@お腹いっぱい。:02/09/14 15:25
>>479
ごちそうさまでした。

482 :名無しさん@お腹いっぱい。:02/09/14 20:08
おなじく、使わせていただきました(なにに

483 :名無しさん@お腹いっぱい。 :02/09/15 16:46
522 名前:名無しさん@お腹いっぱい。 投稿日:02/09/06 14:56 ID:???
#include <iostream>
using namespace std;

int main(void)
{
int hajime, owari, i;
string url;
cout << "ルートディレクトリのURLを入力してください: ";
cin >> url;
cout << "最初の番号を入力してください:";
cin >> hajime;
cout << "最後のの番号を入力してください:";
cin >> owari;

for (i=hajime; i<=owari; i++) {
if (i < 10) cout << url << "0" << i << ".jpg" << endl;
else cout << url << i << ".jpg" << endl;
}
return 0;
}

貼ってみるテスト

484 :名無しさん@XEmacs:02/09/15 22:41
そんなことをして何に役立つんだよ、と言ってみるテスト。


485 :名無しさん@お腹いっぱい。:02/10/11 15:49
ほしゅあげ

486 :名無しさん@お腹いっぱい。:02/10/12 12:46
>>483
そんなのUNIXじゃねぇ。


487 :名無しさん@お腹いっぱい。:02/10/13 00:02
がんばれage

488 :名無しさん@お腹いっぱい。:02/10/28 02:28
#!/bin/sh

while true
do
 echo "hoshu age"
done

貼ってみるテスト

489 :名無しさん@お腹いっぱい。:02/10/28 12:20
>>488
どうでもイイけど、
while true; do
echo "hoshu age"
done
と書く派なので、そういう書き方だと式の後のコロンを省けるのを知らなかった…。


490 :名無しさん@お腹いっぱい。:02/10/28 16:46
>>488
shell script使わなくても
yes "hoshu age"


491 :名無しさん@お腹いっぱい。:02/10/28 17:21
保守でageる方はDQNでございます

492 :名無しさん@お腹いっぱい。:02/11/16 02:20
最近さ、AOLからwgetでダウンロードできないんだけどさ。
もしかして俺だけ?へんなhtmlファイルがおちてくる。
いつもは、オプションなんて設定しないで大丈夫だったんだが。

あくまでも例えばだが、zshで
wget -nd ttp://members.aol.com/missnuts555/miss5/m500{00..39}.gif
wget -nd ttp://members.aol.com/missnuts666/miss6/m500{40..79}.gif
wget -nd ttp://members.aol.com/missnuts777/miss7/m50{080..109}.gif

で、 cat * > hoge.rm ってしたいんだけど。

なんかオプションで指定しないとだめなんですかね?
おしえてください。


ちなみに今日はIrvineで(゚д゚)ウマーしたんだがさ…。
これのためだけにWindows起動してIrvineをつかうのは辛いです。

493 :名無しさん@お腹いっぱい。:02/11/16 02:41
>>492
--referer='http://members.aol.com/...' とか -U 'Mozilla/4.0 (compatible)' とか
は試してみた?

494 :名無しさん@お腹いっぱい。:02/11/16 04:29
>492
っていうか場所によって仕掛けが違うから「あくまでも例えば」とかいう偽URIじゃ意味ないよ。
そのものズバリを書きなって。

フツーはその「へんなhtml」を読めば済むことも多いし。

495 :名無しさん@お腹いっぱい。:02/11/16 12:39
wgetの書式をいじるのもいいけど、リジュムとかラブマみたいな分割偽装
ツールが欲しいところだね。Wineでやるのもいいけど、エロ動画を結合
するだけのためにCPUにムチ打つのはつらい。


496 :名無しさん@お腹いっぱい。:02/11/16 12:57
>>495
フォーマット公開されてるの?

497 :名無しさん@お腹いっぱい。:02/11/16 15:57
フォーマット公開されてたら偽装じゃないと思う…

498 :名無しさん@お腹いっぱい。:02/11/16 16:34
リジュム(漢字わすれた)って本体のfileはcatでくっつくよね。
.rez fileはファイル名とCRCが入ってるだけっぽいし…
フォーマット誰かしらべてないかな?

499 :495:02/11/16 17:04
>>498
ああ、リジュムの場合はlonginus.dll(他にもあるのかな)で偽装して
あるとだめだろう。
*BSDのpeaceって、*BSDのプログラムからWin32 DLLの関数を呼んだりは
できないのかな。


500 :名無しさん@お腹いっぱい。:02/11/16 18:33
>>491
このスレのローカルルールとして、
保守ageするやつはついでにエロ画像へのリンクを貼る
てのはどうですか


501 :492:02/11/17 00:27
すみませんでした。激しく自分がミスを犯してました。(;´Д`)
URLが間違ってました。つーか、とくに自分が手を加えていないから、
リンク切れだったようです。

>>492の訂正
s/missnuts555/missnuts5555/g
s/missnuts666/missnuts6666/g
s/missnuts777/missnuts7777/g




502 :このスレの1:02/11/24 04:09
ttp://www.scghun.com/main.htm
上記のようなサイトにある画像を全て、簡単に落すテクニックってなんかありませんか。

とりあえず、ここで鍛えたテクニックを使って連番のリストファイルを一つ作り、それを
パターンにそって少しずつ変形させるスクリプトなぞを作り、最後にwgetで一挙に落そ
うという手で攻めてみたが、何分、微妙にパターンが変えられていたりして、四苦八苦し
てしまった。そのためAmateur Schoolgirls Gallery とAmateur Teens Galleryの画像を全
て落すための手はずを整えるのだけで週末を使いきってしまったよ。トホホ。

識者の方々、よい知恵をお貸しくだされ。

503 :名無しさん@お腹いっぱい。:02/11/24 04:44
いやーどう見ても、というかちょっとしか見ていないが、
SchoolgirlsでもなければTeensでもないような気が…。
そういうもんなのか?


504 :名無しさん@お腹いっぱい。:02/11/24 05:06
>>502

wget -N -q -O /dev/fd/1 "$url" \
| nantoka "$url" \
| grep hogehoge \
| sort -u \
| while read tmp; do
wget -N -q --referer="$url" -O /dev/fd/1 "$tmp" \
| nantoka "$tmp"
done \
| grep '\.jpg$' \
| sort -u \
> list

ちなみに、nantoka は、argv[1]をbase url として標準入力から
リンクを抜き出すフィルタね。

nantoka を、lex か何かで作っとくと便利だよ。

505 :502:02/11/24 23:26
>>504
サンクスです。
wgetのオプション等多々、わからないことが多いですが、時間のあるときに
調べて挑戦してみたいと思います。新境地に達っしたいっす。

お礼URL
ttp://asiangirls.bphosting.com/ag05/m13.html

506 :名無しさん@Emacs:02/11/25 00:24
>>502
$url が与えられてるとして、
wget --accept=jpg -c -t 0 -r -l 1 --span-hosts \
-nd --user-agent=Mozilla --referer=$url $url
とかで落とせないかい?

507 :名無しさん@お腹いっぱい。:02/12/03 22:49
Yahoo! Groupsからファイル落とせるようにできないかなあ。
ユーザー認証ディレクトリの中にあるからダメかなあ。

508 :名無しさん@お腹いっぱい。:02/12/24 02:54
クリスマス・プレゼントあげ
ttp://www8.kinghost.com/asian/jgfc06/00348/

509 :名無しさん@お腹いっぱい。:02/12/24 07:10
俺はいつもHTMLをwgetでとってきて、sed かましてwgetに流してる。楽だし。
このスレを見てると、なんか職人魂を感じるな。
それはそうと、このスレは画像限定?rezファイルも連番になってるけど…アリかね?

// 誰か、Unixでラブマを結合する方法教えてくれ。

510 :名無しさん@お腹いっぱい。:02/12/29 03:22
wine Lovema.exe


511 :名無しさん@お腹いっぱい。:02/12/29 03:24
ついでに、takehost が最近 cookie を見るようになった。
wget で --save-cookies, --load-cookies 初めて使ったよ。

512 :名無しさん@お腹いっぱい。:03/01/01 03:21
ここで一句
 元旦にエンジン全開エロパワー

513 :名無しさん@お腹いっぱい。:03/01/01 20:22
>>507
ふつーにできるだろ、と思って今ちょっとやってみたができんな(w

514 :ftr223:03/01/03 15:44
でででででぇぇーっ!


515 :名無しさん@お腹いっぱい。:03/01/04 01:00
半角文字列/アップローダーはここだ!6 【半角板】
http://okazu.bbspink.com/test/read.cgi/ascii/1039936366/163

From: [163] 名無しさん@Emacs <>
Date: 02/12/30 00:06 ID:U6t76zEY

2chのためのアップローダだったら、2ch自身をアップローダとして使えばいいのでは?
帯域も十分だし、他のアップローダや回線に要らぬ迷惑もかけないし、、
アップロード時は、gzipとかbzip2で圧縮した後、base64とかでencodeしたも
のを、1スレに収まるように分割し、それらを適当な板とスレッドにランダム
に分散して投稿する。ただ、前の分割ファイルがわかるようにそのURLを各レ
スの最初に埋め込む。最後のレスには復元後のファイル名とチェックサム、ファ
イルの説明を書くようにする。
ダウンロード時は、最後のレスから次のレス、その次のレスと追っていき、最
初のレスまで辿り着いたら、全部のデータ部を結合、decode、解凍をする。
もちろん、以上の動作は専用プログラムを使う。もしくは、2ch専用ブラウザ
にそういった機能を組み込んでもらう。
まあ、こういった使い方が2ch側からabuseだったらあぼんですが、、


516 :名無しさん@お腹いっぱい。:03/01/07 03:55
最近、AOLのサーバーってデリが早くないか?
あとラブマ偽装も増えたなぁ・・・

517 :名無しさん@お腹いっぱい。:03/01/07 05:05
ラブマ偽装はもうしょうがないだろうねー
海外にガンガン晒される様になって来てるらしいし

そのうちcgiに日本語パスワードとかになるんじゃねーの?

518 :名無しさん@お腹いっぱい。:03/01/07 08:27
>>515
http://dempa.2ch.net/gazo/wara/imgboard.cgi

> 帯域も十分だし、
おいおい。

519 :名無しさん@お腹いっぱい。:03/01/07 11:28
パラパラマンガみたいに、微妙に動いている写真を、
アニメーション表示させるプログラムを書いてみた。

使う?


520 :名無しさん@お腹いっぱい。:03/01/07 22:00
>>519
とりあえずうぷしる!

521 :名無しさん@お腹いっぱい。:03/01/07 22:24
http://f4.aaacafe.ne.jp/~kent/up/img/737.jpg
実際は tar.bz2 なので注意。
コンパイルに SDL と SDL_image が必要です。

./morphanim image-1.jpg image-2.jpg ... image-n.jpg
で引数の画像を疑似アニメーション表示。

ドラッグで画像移動。ホイールスクロールで速度変更。


522 :名無しさん@お腹いっぱい。:03/01/08 00:03
wineで動く猫缶偽装解除ソフトあったら教えて!!
Melt it!は駄目みたい.


523 :名無しさん@お腹いっぱい。:03/01/10 15:36
age

524 :名無しさん@お腹いっぱい。:03/01/10 15:38
◆◇◆◇◆最新情報◆◇◆◇◆
http://yahooo.s2.x-beat.com/linkvp/linkvp.html


525 :山崎渉:03/01/15 12:56
(^^)

526 :名無しさん@お腹いっぱい。:03/01/16 17:28
wgetでpostってできないですか?

527 :名無しさん@お腹いっぱい。:03/01/16 21:10
wpost: Command not found.

528 :名無しさん@お腹いっぱい。:03/01/19 18:58
クッキーもSSLもつかってる会員制サイトの画像を落とすにはどうすればいいんだろう・・・
スクリプトじゃもうだめな域か?

529 :名無しさん@お腹いっぱい。:03/01/19 21:50
なんていいスレなんだ!!!感動した。
rezがcatでできるなんて、しらんかった...
よく考えてみればあたりまえだな
おれも昔延々とbinaryのぞいてました。
rez fileは、crc16だったような、source perlで作ったようなきが
すんですけど、defualtのuni* commandじゃ作れなかったようなきがします...
fread(),fwrite(),dirent.h使ってた俺って一体何?
>>498
フォーマット調べずとも、wine APIでdll直接叩くってのはどでしょうか?

530 :名無しさん@お腹いっぱい。:03/01/20 02:47
>>528
最近の wget なら HTTPS も Cookie も喋れるよ。
がんがればなんとかなるっしょ。

531 :528:03/01/20 18:48
>>530
そうなんですか・・・
でもWebMailのような方式(Web上でIDとパスワードを打ち込む方式)だと太刀打ちできなさそうで???

532 :うひひ:03/01/20 18:55
>>531
telnetで打ち込むとかLynxで自動に打ち込むのはどーよ


533 :名無しさん@お腹いっぱい。:03/01/20 18:55
>>531
curl なら POST 使えるんでない?

534 :名無しさん@お腹いっぱい。:03/01/21 22:58
相手のサーバが anonymous-ftp だったりすると、単純に wget を
ループさせるのはよろしくねいですよね。コネクションの都合上。
その辺りは考慮しますか? 漏れの場合には、

lftp ftp://server/path/to/
mget ero[0-9]*.jpg

です。って外出ですね。


535 :名無しさん@お腹いっぱい。:03/01/22 05:41
/dev/urandom を使って、とってきた画像をランダムスライドショー
Linux以外のOSで動くかどうか知らん。
* #!/bin/sh
* set -x
*
* case "$1" in
* start)
* PHOTOS=$(wc -l `pwd`/ero.list | awk '{ print $1; }')
* if [ "$PHOTOS" -lt "1" ]; then
* echo "エロ画像がない"; exit 1;
* fi
*
* if [ -x $(which wmsetbg) ]; then
* PROG="wmsetbg -a";
* elif [ -x $(wich display) ]; then
* PROG="display -window root -geometry $(xdpyinfo | grep dimensions | awk '{ print $2}')";
* elif [ -x $(which xloadimage) ]; then
* PROG="xloadimage -onroot -fullscreen";
* else
* echo "ビューアがない"; exit 1;
* fi
*
* find `pwd` -type f | egrep "jpg$|JPG$" | nl -n ln > `pwd`/ero.list
*
* while [ $0 ]; do
* RAND=$(cat /dev/urandom | od -t uS | head -n 1 | awk '{print $2;}');
* if [ "$RAND" -le "$PHOTOS" ]; then
* ERO=$(egrep "^$RAND " `pwd`/ero.list | awk '{print $2;}');
* $($PROG $ERO); sleep 5s;
* fi
* done
* ;;

536 :名無しさん@お腹いっぱい。:03/01/22 05:43
* stop)
* xsetroot -solid black;
* if [ -e `pwd`/ero.list ]; then
* rm -f `pwd`/ero.list;
* fi
* ps aux | grep "/ero.sh" | awk '{ print $2; }' | xargs kill -KILL
* ;;
* *)
* echo "あぼん"
* exit 1
* ;;
* esac

537 :535 訂正:03/01/22 05:49
find `pwd` -type f | egrep "jpg$|JPG$" | nl -n ln > `pwd`/ero.list
の行を start) の直後にもってこないと動かないですね。
どうも失礼しました。

538 :535 訂正2:03/01/22 05:59
- ps aux | grep "/ero.sh" | awk '{ print $2; }' | xargs kill -KILL
+ ps aux | grep $0 | awk '{ print $2; }' | xargs kill -KILL
蛸スクリプト荒しでした。ではさようなら。

539 :名無しさん@お腹いっぱい。:03/01/29 19:10
クッキー・REFERER・エージェント名チェック対策から始まり、
ベーシック認証・SSLといった障害を乗り越え、再帰探索ロボット化。
更新チェック機能を設け、MIMEチェックで無駄なデータを排除したり、
サイズチェックでサムネイル画像を捨てたり、連続アクセスに対して
帯域制限で反撃してくるサーバのためにインターバル調節やリトライ機能を追加し、
無限階層地獄なサーバ対策機能を追加し、効率を追求するためにマルチプロセス化したら、
某社が結構な値段で買ってくれました。
もちろん、開発動機がアダルト画像ダウンロードだったのは企業秘密です。

540 :名無しさん@お腹いっぱい。:03/01/29 22:38
>>539
売り込み文句のほうが気になるんだが…

541 :うひひ:03/01/31 10:36
アメリケンかなんかのYahoo! Briefcase のファイルを
すかっと落とすスクリプト誰か作ってないかなぁ?
うぃん用のNetDupeExなんてのは見つけたんだけど

loginとpass入れないとファイルのURL抜けないんだけど
抜けちゃえばwgetでとれる
スクリプトあんま良くわかんないんだよなぁ


542 :名無しさん@お腹いっぱい。:03/01/31 12:18
UNIX はこんなことをやらないと連番画像すら落とせないのですか。
悲惨ですね。unixは。普及しないわけだ。

543 :名無しさん@お腹いっぱい。:03/01/31 19:41
まあね。でも楽しいからいいんよ。

544 :名無しさん@お腹いっぱい。:03/01/31 21:32
マジレスしていい? 専用統合ツールもないことないです。Aria
とか。ただ Windows ものの方が、数とユーザが多いぶん洗練され
てる感じはする(見ただけなのでなんとも言えんけど)

まぁ毎日に使うもんじゃないし、汎用的に使える wget ですませちゃえ
ってのは自然な発想じゃないかと。

545 :名無しさん@お腹いっぱい。:03/01/31 23:00
aolってファイル消えるの早すぎ
YahooのBriefcaseって1KB/秒以下で全然落ちてこん・・・
最近はiijとかのモザイク入り巨乳動画で我慢してるが。

以上、愚痴でした。

546 :うひひ:03/02/03 09:21
>>544
ありがとう。はじめて知ったよ
パチョを含めこの手のツールは全く使ったことないので
ちょっと見聞してみる

なんかYahoo! Briefcase って最終的にファイルのURLを
http://us.f1.yahoofs.com/users/2a123153/bc/MITEMITE/Uhihi_chimpo001?bcCecO.A9UUF29L7
なようになってるんだが?以降の文字がコロコロ更新されるみたいなんだよなぁ
モタモタしてると変わっちゃうようみたいな気がする

ファイルリストページのソースを編集するのは何となくできたっぽいが
初期ページからファイルリスト全表示までの作戦がワカラン
Lynxとexpect で組む位しか作戦が

当座はしのいだから研究してみますわ


547 :名無しさん@お腹いっぱい。:03/02/03 20:16
>>546
どうでもいいが,すごい URI だな。
思わずアクセスしてしまったじゃないか(w

548 :名無しさん@お腹いっぱい。:03/02/04 14:58
>>546
例示にはアクセスできるURIを示してください。
でないと抜けない。


549 :うひひ:03/02/04 15:28
>>547-8
すまんこってす。
本物のlogin,passwdとページのほうが情報が集まるとは思ったんだけど
アレの元はAVじゃなくておねーちゃんのPVなのよ。つまんないだろ?
丁寧に1M分割で4アカウント100ファイル以上だったので
結局ブラウザからLoginしてソース落としてsedしてみたいな



550 :名無しさん@お腹いっぱい。:03/02/17 22:51
リファとクッキーでそれらしきモノが落ちてくるけど表示されない。
というよりも mozilla でもエラー有りとして表示出来ない。
どうして?
ttp://comp278.takehost.com/aloha/index.html

551 :名無しさん@お腹いっぱい。:03/02/18 15:41
>>550
漏れもそこで少し悩んだ
結局、RefererとCookieだけでよかった

552 :名無しさん@お腹いっぱい。:03/03/18 02:59
連番で集めた裏本やPGFをディレクトリーごとに整理していても、増えていくと
どんな奴の写真だったかわからなくなってしまう。で、各ディレクトリから一
枚目だけを抜き出して、ブラウザーで表示するためのlist.html作成スクリプト
を書いてみたよ。評価してくれ。

#!/bin/sh
DIR=`pwd`
FN=`basename $PWD`
echo "<html><head><title>$FN</title><head><body>" > list.html
for i in `ls`
do
if [ -d $i ] ; then
cd $i
n=`ls | grep "[jJ][pP][gG]" | head -1`
cd $DIR
echo "<IMG SRC=\"$i/$n\" HEIGHT=\"120\" WIDTH=\"80\"><a href=\"file:///$DIR/$i/\" target=\"_blank\"><font size=1>$i</font></a>" >> list.html
fi
done
echo "</body></html>" >> list.html


553 :名無しさん@お腹いっぱい。:03/03/21 09:10
それにしても、勉強になるスレだ(w


554 :名無しさん@お腹いっぱい。:03/03/21 12:31
ファイルの保管で悩んでるのよ。長いけど聞いてくれ。

たまった画像および動画を外部メディアに保存する。でその時に、暗号化…
というか、めくらましをしときたい。また、取得は Unix、鑑賞は Win の
パターンが多いので、両方で使えるのが望ましい。

win and unix>手軽さ>速度>>>>暗号強度(>圧縮)

で、なるべく透過型なのがいい。ふつーのファイルみたいに見えるやつ。

PGP disk (仮想ファイルシステム)はほとんど理想なんだけど、残念な
ことに RO media からの mount ができない。DVD-R への保存ができない。
# でもこれはこれでいい。万人に薦める。

zip による暗号化はファイル名がばっちりなので意味がない。また、伸長
処理が一段階入っちゃうのがとても気に入らない。

君たちはどうしてるかね。つーか Win で loop device が使えればばっちり
なのだがー。意見求む。

555 :名無しさん@お腹いっぱい。:03/03/21 23:13
>>554
暗号化うんぬんとズレるけど、ファイル名を機械的に変更するのはどう?
実は漏れ、ファイルの整理の為に、md5 の結果をファイル名にしてるのだ。

#! /bin/sh

IFS="
"
for i in `find $1 -type f -print`; do
mv "$i" `dirname "$i"`/`md5sum.exe $i | sed -e "s/ \*.*$//"`.`echo $i | sed -e "s/^.*\.//"`
done


556 :555:03/03/21 23:18
cygwin 上で動かしてるので md5sum.exe になってたりするが気にしないようにw。
後、md5 の表示形式によって微妙にスクリプト変えないといけないのも注意。


557 :名無しさん@お腹いっぱい。:03/03/22 16:30
透過型というか、先頭32K部分とかに XOR でもかけて、
% xor 32000 <ファイル名> | mediaplayer とかできるとありがたい。
もしくは先頭部分にダミー放りこんで、32K後から読み込むようにするとか。

これと >>555 の md5 作戦を組み合わせれば DVD そこらに置きっ
ぱなしにしたりしても(まぁ)安全。扱いも楽。
しかし、 Unix ならまだしも Windows でこゆことできるのかな。

子供さんがおられるひととかいない? お父さんなにこれ、とか言われ
る前に備えが必要では? などと不安を煽ってさらにアイデア募集。

558 :山崎渉:03/04/17 12:16
(^^)

559 :名無しさん@お腹いっぱい。:03/04/17 17:00
いつのまにか*nixでラブマ結合出来るソフト公開されてるのね。
感謝感謝。

560 :名無しさん@お腹いっぱい。:03/04/18 09:13
>>559
詳細キボンヌ

561 :名無しさん@お腹いっぱい。:03/04/18 10:06
>>559
さんくす。
>>560
Google

562 :山崎渉:03/04/20 05:50
   ∧_∧
  (  ^^ )< ぬるぽ(^^)

563 :1:03/04/23 19:21
http://xxx.xxx.com/eroero/[01-25].jpg
http://xxx.xxx.com/eroero2/[26-50].jpg
と書かれたlistファイルから
http://xxx.xxx.com/eroero/01.jpg

http://xxx.xxx.com/eroero2/50.jpg
と展開したnewlistファイルを作るスクリプト。とりあえず[]内二桁までしか対応していない。
誰か改良してくれ。

#!/bin/sh
exec < list
while read URL
do
n=`echo $URL | awk -F[ '{print $2}' | awk -F- '{print $1}'`
if [ $n -lt 10 ]; then
n=`echo $n | sed 's/^0//'`
fi
LAST=`echo $URL | awk -F[ '{print $2}' | awk -F- '{print $2}' | awk -F] '{print $1}' `
while [ $n -le $LAST ]
do
if [ $n -lt 10 ] ; then
echo $URL | sed "s/\[[0-9][0-9]-[0-9][0-9]\]/0$n/" >> newlist
else
echo $URL | sed "s/\[[0-9][0-9]-[0-9][0-9]\]/$n/" >> newlist
fi
n=`expr $n + 1`
done
done



564 :名無しさん@お腹いっぱい。:03/04/23 20:21
誤爆しちまったい。これでどないだ
perl -ne 'chop; ($base, $first, $last, $ext) = m@(http://.+)/\[(\d+)-(\d+)\]\.(\S+)@; for($first..$last){printf "$base/$_.$ext\n"}' list

565 :名無しさん@お腹いっぱい。:03/04/23 21:36
>>564
誤爆先を見つけてしまったよ……
ていうかなんであんなところに誤爆してるんだYO!(w

566 :名無しさん@お腹いっぱい。:03/04/23 21:51
unix でラブマ教えてプリーズ

567 :名無しさん@お腹いっぱい。:03/04/23 22:20
unlov を使いたまえ

568 :名無しさん@お腹いっぱい。:03/04/23 22:23
>>567
サンクスコ!

569 :名無しさん@お腹いっぱい。:03/04/23 22:46
Linuxバイナリかよ。
unixじゃないじゃn

570 :名無しさん@お腹いっぱい。:03/04/23 22:53
偽装の仕様は公開してくれないの?
あれば自分で作りたいんだけど。

571 :名無しさん@お腹いっぱい。:03/04/23 23:26
>>570
「偽装」の目的を考えれば、公開する訳がない気がする…

572 :名無しさん@お腹いっぱい。:03/04/23 23:33
偽装の目的ってなんなのかな。
jpg ファイルに埋め込めればいいとかじゃなくて?
結合ツールが出回ってるのに公開しない理由とわ?

573 :名無しさん@お腹いっぱい。:03/04/24 00:23
>>572
安全保障上の理由とおもわれ。

574 :名無しさん@お腹いっぱい。:03/04/24 12:14
>>563
これじゃだめなのか?
#!/bin/sh
len=2
fmt="%s%0${len}d%s\\n"
IFS='[]-
'
cat list | while read base beg end sfx; do
i=$beg
while [ $i -le $end ]; do
printf $fmt $base $i $sfx
i=`expr $i + 1`
done
done >newlist


575 :名無しさん@お腹いっぱい。:03/04/24 18:47
>>570
ハックという言葉は知っているかね?

576 :名無しさん@お腹いっぱい。:03/04/24 19:43
ハックの大事なものを知ってるよ
友達どうしの約束と涙の止まるおまじない

577 :名無しさん@お腹いっぱい。:03/04/25 01:38
>>575
ロリ.hackハァハァ

578 :名無しさん@お腹いっぱい。:03/04/25 20:09
日替わりに動画を更新するエロサイトでは、URL はほぼ固定で日付に相当する
部分だけを変えるところも多い。

で、そういうサイトの動画を楽にまとめて落とすスクリプトを書いてみた。date の書式を
利用しているので手抜きができる。使う種類は限られていると思うが、例えば %m は月に
%d は日にそれぞれ置換される。

以下のような感じで、データの追加も簡単だし、一時的にチェックから外したければ、
END 以下に移動させてコメントアウトしておけばいい。単純な割にはめちゃ便利かも

#!/bin/sh

cat <<END | while read i; do wget $(date "+$i"); done
http://www.nantoka/~abc/defg%m-%d.zip
http://www.kantoka/~hij/klmn%m-%d.zip
http://www.doko/~op/qr_stu%m-%d.zip
http://www.kasiko/~vw/xyz99%m-%d.zip
END

579 :名無しさん@お腹いっぱい。:03/04/26 06:19
このスレは素晴らしいですね!
ところで、上の方でもつぶやいていた方がいましたが、
yahoo groops(eGroup)の記事や画像を自動ダウンすることは可能なのでしょうか?

winのオートパイロットソフトなども試したのですが、認証が越えられずダメでした・・。
wgetでもダメならば、cygwinのlynxならば認証を受けることができるので、
lynxをスクリプトで自動で操作してダウンする、などということは可能なのでしょうか?

wgetはwinのIEのクッキーではダメなんですよね?

580 :動画直リン:03/04/26 06:25
http://homepage.mac.com/hitomi18/

581 :名無しさん@お腹いっぱい。:03/04/26 06:45
$ wget --help|grep cookie
--cookies=off don't use cookies.
--load-cookies=FILE load cookies from FILE before session.
--save-cookies=FILE save cookies to FILE after session.


582 :名無しさん@お腹いっぱい。:03/04/28 01:37
>552
このスレのちょっと前に出てた、ディレクトリ以下のインデックス一覧表示を
追加して使わせて貰ってます。
ディレクトリの中に.jpgがない場合のエラー処理が要るような気もするけど
まぁいいや。

#ソースの折り返しとかについては勘弁ね。

#!/bin/sh
DIR=`pwd`
FN=`basename $PWD`
URL_HEAD='http://www.漏れのティンコ.co.jp'
echo "<html><head><title>$FN</title><head><body>" > index.html
echo "<div align=center><font size=4>$FN</font></div>" >> index.html
for i in `ls`
do
if [ -d $i ] ; then
cd $i
ls |grep "[jJ][pP][gG]"| sed 's%\(.*\)%<a href="\1" alt="\1"><im
g src="\1" height=120 width=80></a>%' > index.html
n=`ls | grep "[jJ][pP][gG]" | head -1`
cd $DIR
echo "<IMG SRC=\"$URL_HEAD/$i/$n\" HEIGHT=\"120\" WIDTH=\"80\"><
a href=\"$URL_HEAD/$i/\" target=\"_blank\"><font size=1>$i</font></a>" >> index.
html
fi
done
echo "</body></html>" >> index.html

583 :名無しさん@お腹いっぱい。:03/04/28 03:14
うーむ。

index.html あたりからリストを生成して、wget を 10 個くらいで一気に
fetch してくる perl スクリプトってない?

584 :名無しさん@お腹いっぱい。:03/04/28 03:51
何を取ってきたいのか判らんのにどうしろと

585 :583:03/04/28 03:58
HTML::LinkExtor URI::URL LWP::UserAgent HTTP::Request

でリスト作って、2chJpgGetter の wget_down を回してやればいいことに
気がついて、ほぼ実装完了。



586 :名無しさん@お腹いっぱい。:03/04/28 04:33
>>582
grep -i .jpg を使わない理由があるんだろうか

587 :583:03/04/28 05:28
ヘタレな index 作るより、thumbnail_index を回せば
何も苦労しなくていいわけだが。

588 :名無しさん@お腹いっぱい。:03/04/29 02:20
Yahoo! Groupsにコマンドラインからログインする方法を試行錯誤してたら
ログイン失敗しすぎてアカウント一時停止された…半日おあずけ。

もしかしてhttpsでコマンドラインからLynxとかでpostするときは
コマンドラインに渡す文字列の時点で暗号化されてないとダメだったんだろうか…
いや、そんなことしなくてもいちどLynxでSSLログインして
そのクッキーをwgetに流用すればよかったんではないだろーか…

とか(w

589 :名無しさん@お腹いっぱい。:03/04/29 16:32
Yahoo! groupsのメーリングリストアーカイブからファイルを持ってくるPerlScriptならあった。
http://www.lpthe.jussieu.fr/~zeitlin/yahoo2mbox.html
ログインと年齢チェックのとこを借りればfilesやalbumsは問題なさげ。
つーかLynxやw3mでのpostとwgetを組み合わせようとするのは漏れには難しいよママン…

590 :579:03/04/30 02:01
ヤフーグループのことを質問したものです。
おぉ!いろいろ試してくださったんですね!!情報をくださった方まで!
超感謝です!

アルバムはgethttpというプロクシサーバーを立てて、
スライドショーにすると、そんなに手間がかからず保存できます。
ファイルはなぜかダウンロードマネージャーでダウンできることも多いんですよ。
それなんで、一番大きな問題はメッセージだったのです。
紹介していただいたスクリプトを使ってみます。

591 :579:03/04/30 02:49
うーん・・。なぜかダウンロードが始まらない・・。
0kbのファイルができるだけで・・。


592 :582:03/05/03 00:28
>586
>grep -i .jpg を使わない理由があるんだろうか

いや、grep -i の方が正しいと思いやす。


593 :名無しさん@お腹いっぱい。:03/05/06 04:06
>>589のやつ、うまくいった人いますか?

594 :_:03/05/06 04:07
   川o・-・)ノ <先生!こんなのがありました!
http://www.japan.pinkserver.com/kaorin/moe/jaz03.html
http://japan.pinkserver.com/kaorin/mona/index.html
http://www.japan.pinkserver.com/kaorin/moe/jaz02.html
http://japan.pinkserver.com/kaorin/moe/jaz08.html
http://www.japan.pinkserver.com/kaorin/moe/jaz09.html
http://japan.pinkserver.com/kaorin/moe/jaz05.html
http://www.japan.pinkserver.com/kaorin/moe/jaz06.html
http://japan.pinkserver.com/kaorin/moe/jaz01.html
http://www.japan.pinkserver.com/kaorin/moe/jaz10.html
http://japan.pinkserver.com/kaorin/moe/jaz07.html
http://www.japan.pinkserver.com/kaorin/moe/jaz04.html

595 :山崎渉:03/05/22 02:00
━―━―━―━―━―━―━―━―━[JR山崎駅(^^)]━―━―━―━―━―━―━―━―━―

596 :名無しさん@お腹いっぱい。:03/05/22 08:43
自分にとっては、今までのスクリプトのなかで>>578が実用度が一番高い。
単純な割にいいね

597 :名無しさん@お腹いっぱい。:03/06/02 18:44
質問があります。javaなどのScriptがアクセスするページの画像をダウンロードできるソフトって
ありますか?
できれば連番で・・・

598 :名無しさん@お腹いっぱい。:03/06/02 18:46
>>597
具体的にどこよ。

599 :名無しさん@お腹いっぱい。:03/06/02 21:14
>>598
「みてみて」っていうサイトです

600 :名無しさん@お腹いっぱい。:03/06/02 21:31

ttp://www.mitemite.ne.jp/

601 :名無しさん@お腹いっぱい。:03/06/03 17:52
↑無理?

602 :名無しさん@お腹いっぱい。:03/06/03 17:55
>>589
市販のオートパイロットではエラーがでちゃうんです


603 :名無しさん@お腹いっぱい。:03/06/14 22:39
ごぶさたあげ

604 :名無しさん@お腹いっぱい。:03/06/17 20:47
外出かもしれんが、ワードのマクロで連番のアドレス書いているのは俺だけだろうか?
www.xxxx.001.jpg
なら←×4・BS・数を入力を繰り返して・・・・で、100位までつくってあるんだが
そしてIriaにはりつけ

605 :ななす:03/06/17 21:20
>>604
言ってる意味が理解できないが
ワードのマグロ?なんか青いオサカナ泳ぐういんどーずのヤシか
イチリアとか言うヤシは張り付けのクリップボードなのか
この板の香具師は概ねwgetのjpg狩りで
最悪連番必要でもwgetと好みのシェルの機能で[0-9]連番指示をだすわけで
wget -c http://www.eroero.uhiuhi.com/{cyapa,ozeu,hitoduma}/00[0-9].jpg



606 :名無しさん@お腹いっぱい。:03/06/26 09:43
連番生成・・・cygwin上でシェルスクリプト
ダウンロード・・・Irvine
POSTを喋らしたりcookie食わせるなら、perlでUAつかって書く

やっぱWindows上じゃないとねこーいうのは。


607 :名無しさん@お腹いっぱい。:03/06/26 09:55
連番生成 : jot
ダウンロード : wget
POST や Cookie : Perl でも Ruby でも Python でも何でも

なんで Windows?

608 :名無しさん@お腹いっぱい。:03/06/26 18:31
>>606
>>607
>>605 の方法が漏れには一番簡単に見えるんだが。
というか,プログラムを書く必要ってあるのか?
Cookie を食べる必要があるなら w3m でやればいいし。

609 :名無しさん@お腹いっぱい。:03/06/26 20:58
>>607>>606 に突っ込んでみたかっただけだよん

610 :名無しさん@お腹いっぱい。:03/06/30 19:18
unlov が Google から消えた…誰か詳細きぼんぬ。

611 :名無しさん@お腹いっぱい。:03/07/02 00:01
Googleから消えた理由は知らんが、サイトはまだあるよ。

612 :名無しさん@お腹いっぱい。:03/07/02 00:48
jot って BSD 用なの?

613 :610:03/07/02 08:32
>>611
URL きぼんぬ。

614 :名無しさん@お腹いっぱい。:03/07/07 07:47
takehost が Accept-Language: も見るようになったような気配を感じる。

615 :名無しさん@お腹いっぱい。:03/07/07 08:14
>614
拙者の記憶によると日本時間で4日の昼間からでござる。
入れ替わりにcookieを見なくなったように思わるれ。

616 :山崎 渉:03/07/15 11:18

 __∧_∧_
 |(  ^^ )| <寝るぽ(^^)
 |\⌒⌒⌒\
 \ |⌒⌒⌒~|         山崎渉
   ~ ̄ ̄ ̄ ̄

617 :名無しさん@お腹いっぱい。:03/07/22 06:57
.


618 :610:03/07/22 10:30
誰か教えてくれぇ〜(´Д`)

619 :名無しさん@お腹いっぱい。:03/07/22 11:43
>>618
作れ。

620 :名無しさん@お腹いっぱい。:03/07/22 18:36
>>610
まず誠意をみせろ。おれが自宅に戻れる22:00以降に。
話はそれからだ。

621 :610:03/07/23 19:58
誠意っヽ(`Д´)ノ
ttp://houston.ddo.jp/~pitt/bakuf/2201.zip
ttp://houston.ddo.jp/~pitt/bakuf/2202.zip
ttp://houston.ddo.jp/~pitt/bakuf/2203.zip
ttp://houston.ddo.jp/~pitt/bakuf/1701.zip
ttp://houston.ddo.jp/~pitt/bakuf/1702.zip
ttp://www.hh.iij4u.or.jp/~hancock/rm/000.dat
ttp://www.pp.iij4u.or.jp/~fizz/rm/001.dat
ttp://houston.ddo.jp/~pitt/ousyo2/002.dat
ttp://houston.ddo.jp/~pitt/ousyo2/003.dat
ttp://houston.ddo.jp/~pitt/ousyo2/004.dat
ttp://houston.ddo.jp/~pitt/ousyo2/005.dat
ttp://www.hh.iij4u.or.jp/~hancock/rm/ousyo22.rez
ttp://www.hh.iij4u.or.jp/~hancock/rm/ousyo22.crc
ttp://homepage2.nifty.com/ysau/1/movie/a001/a001.bat
ttp://homepage2.nifty.com/ysau/1/movie/a001/a001.001
ttp://homepage2.nifty.com/ysau/1/movie/a001/a001.002
ttp://www.kk.iij4u.or.jp/~rouge/rm/tanpan2.zip
ttp://www.pp.iij4u.or.jp/~custom/rm/tanpan4.zip
ttp://www.nn.iij4u.or.jp/~jelly/rm/tobibako1.zip
ttp://www.ff.iij4u.or.jp/~clio/rm/tobibako2.zip
ttp://www.ff.iij4u.or.jp/~magnet/rm/roring1.zip
ttp://www.hh.iij4u.or.jp/~blanc/rm/roring2.zip
ttp://www.kk.iij4u.or.jp/~cosmic/rmm/mituami1.zip
ttp://www.hh.iij4u.or.jp/~starz/rmm/rock1.zip
ttp://www.nn.iij4u.or.jp/~coaster/rmm/rock2.zip


622 :きっと騙されているに一票:03/07/24 03:00
>>621
ゴチ

623 :名無しさん@お腹いっぱい。:03/07/27 23:48
>>621
落ちてこないよ〜

624 :名無しさん@お腹いっぱい。:03/07/28 00:31
こんなん動ナビとか動画普及委員会チェックしてれば毎日ゲットできるぞ。

625 :名無しさん@お腹いっぱい。:03/07/28 17:52
>>620 に騙された哀れな >>610 がいるスッドレはここですか?


626 :名無しさん@お腹いっぱい。:03/07/28 23:40
動ナビ死んでませんか

627 :名無しさん@お腹いっぱい。:03/07/29 05:38
動ナビは死んでないが、iij を使った結構な数のエロサイトから
ファイルが落とせなくなっているな

628 :名無しさん@お腹いっぱい。:03/07/29 14:45
>>626-627
ほかでやれ

629 :ぼるじょあ ◆yBEncckFOU :03/08/02 05:03
     ∧_∧  ∧_∧
ピュ.ー (  ・3・) (  ^^ ) <これからも僕たちを応援して下さいね(^^)。
  =〔~∪ ̄ ̄ ̄∪ ̄ ̄〕
  = ◎――――――◎                      山崎渉&ぼるじょあ

630 :名無しさん@お腹いっぱい。:03/08/04 13:20
wget の --timeout って、
相手がファイアウォールでパケットを捨ててるときには機能しないような気がする。
というか、そもそもそういう目的で使うオプションではないのか?
まあ、squidを経由すれば問題ないんだけど。


631 :620:03/08/04 13:38
>>610
遅くなって正直スマンかった。

望みのモノだよ。
http://saeto.deep-ice.com

632 :名無しさん@お腹いっぱい。:03/08/04 14:13
>>610
おめ

633 :名無しさん@お腹いっぱい。:03/08/04 14:58
動ナビURLはこっちに
http://www.i-like-movie.com/

634 :名無しさん@お腹いっぱい。:03/08/13 12:19
2ちゃんで話題になった「みーほ」女子○学生 B86 W57 H88(○5歳)
がこのHP内のギャラリーで何を考えているんだか、衝撃的なセルフのヌードを晒してます!!
削除される前に早めに見ておいた方がいいとおもいます!マジでやば過ぎ!!

http://neeez.com/~miho-room/

635 :名無しさん@お腹いっぱい。:03/08/13 16:58
不覚にもワロタ

636 :山崎 渉:03/08/15 22:09
    (⌒V⌒)
   │ ^ ^ │<これからも僕を応援して下さいね(^^)。
  ⊂|    |つ
   (_)(_)                      山崎パン

637 :山崎 渉:03/08/15 22:38
    (⌒V⌒)
   │ ^ ^ │<これからも僕を応援して下さいね(^^)。
  ⊂|    |つ
   (_)(_)                      山崎パン

638 :名無しさん@お腹いっぱい。:03/08/27 02:13
{from..to}

639 :名無しさん@お腹いっぱい。:03/08/27 02:15
{10..20,30..40}
みたいにはできないの?

640 :名無しさん@お腹いっぱい。:03/08/27 03:38
>639
zsh: {{10..20},{30..40}}


641 :名無しさん@お腹いっぱい。:03/08/27 08:40
( ・∀・)つ〃∩ ヘェーヘェーヘェー

642 :639:03/08/27 19:15
>>640
ありがdごぜいます

643 :名無しさん@お腹いっぱい。:03/10/26 18:10
そろそろ2ヶ月もカキコがない…。


おまえら満足してますか?

644 :名無しさん@お腹いっぱい。:03/10/26 22:21
>おまえら満足してますか?

してねぇっす・・・。

ダウンロード成果物をいかにユニークに保存するかってトコロで
頭痛めてたりする。
とりあえず、ファイルのMD5をpostgres上のテーブルにinsertしといて、
ダウンロード成果物をそいつとチェックして適宜ハネるって運用してるん
だけど、どうしても明らかに重複する奴が出てくる。

理由はいくつかあるんだけど、この辺が泥臭くかつ難しいね・・・。

最終的には画像の類似性をうんぬんって世界にしないと仕方ないのか?
誰か「漏れはコレだ!」って奴を教えてくれぃ。

645 :名無しさん@お腹いっぱい。:03/10/27 02:18
>>644
> 最終的には画像の類似性をうんぬんって世界にしないと仕方ないのか?
> 誰か「漏れはコレだ!」って奴を教えてくれぃ。
今まで何を試したか書いてくれ。
例示した後で「それはもう使ってみた」って言われるのはやだ。

646 :名無しさん@お腹いっぱい。:03/10/27 04:18
おれは単純に時間とディレクトリで分類してる。
ファイルのタイムスタンプとユニークなID,簡単なメモを
名前に付けてリネームするスクリプト書いて、
適当なディレクトリにとりあえず放り込む。ここまではほぼ自動。

あとは実際に見てる時に必要なら分類し直す。
おれ的にはファイル名がユニークであれば、それで足りてる。
全ての画像に等しい価値がある訳でないので、
必要な時の手作業の分類で間に合う。

647 :名無しさん@お腹いっぱい。:03/10/27 04:30
俺はディレクトリと連番だな。もちろんスクリプトで。

648 :login:Penguin:03/10/27 14:31
>>610
再うpきぼん

649 :名無しさん@お腹いっぱい。:03/10/27 20:36
>>644
wget -x で URL のまま保存してる。


650 :名無しさん@お腹いっぱい。:03/10/28 00:30
>>648
> >>610
> 再うpきぼん

>>631
> >>610
> 遅くなって正直スマンかった。
>
> 望みのモノだよ。
> http://saeto.deep-ice.com



651 :644:03/10/28 12:03
>今まで何を試したか書いてくれ。
少しずつ積み重ねてるから、そんないろいろな方法試してるわけでも
ないんだわ。
で、今のところこんな仕組み。

前提:ファイルはすべて.jpg。
対象は、ディレクトリごとにファイルがまとまっていると想定。
(ディレクトリひとつに1ファイルは無視)

-- 日々。
(1) wget -x でディレクトリごとdownload
(2) jpeginfoで壊れたファイルを削除

-- 月次。
(3) ディレクトリ階層をn階層 -> 2階層へ変換
(4) 指定バイト数以下のファイルやディレクトリを削除
(サムネイル対策)
(5) 過去にダウンロードしたファイルのmd5と比較し、新規ファイルが
含まれているディレクトリは保存用ディレクトリへ移動。
(6) 保存用ディレクトリへ移動したものは、md5をpostgres上のテーブルへ
insertする。
(次からのダウンロード重複チェック用)

--適当なタイミングで。
(6) そこそこたまってきたら、CD-Rを使ってお掃除。

上記(6)以外はすべて自動実行。
で、こうやってて素朴に思うのが、「ここまでやらないかんのか?」てところ。
これという方法も無いような気がするんだけどね。

652 :644:03/10/28 22:21
続き。

重複する理由ってのが、だいたい
(a) jpgファイルが壊れてて、md5が違ってる。
(b) 見た目おんなじ画像で壊れてもいないjpgファイルだけど、何故かmd5が違う。
(c) 素材はおんなじだけど、画像ファイル化したヒトが違うヒト
といったところかなと。
んで、(a)はjpeginfoでどうにかなるとして(といっても再度ダウンロードで補うことが
できればだけどね)、(b),(c)はどうしたものかなと。

完全自動化を目指してるんで、この辺クリアできないかなと考えてます。

653 :名無しさん@お腹いっぱい。:03/10/29 00:51
そこまでしてローカルにあらゆる画像を保存したいの?

画像の類似性を判別するソフトがあったような気もするけど。

654 :名無しさん@お腹いっぱい。:03/10/29 02:28
GQview とか

655 :名無しさん@お腹いっぱい。:03/10/29 02:29
>>653
よく web 上から消えるじゃん。

656 :うひひ:03/10/29 09:36
>>644
素人考えなんだが
同じエロ画像でも大きさっていうか画質とかが違ってたりすんじゃん
例えばイメージマジックとかで同じ様な仕様になるように
小さくサムネイルのように同じファイルサイズとかにフィルタしてから
binary diffみたいのを使って差分をとって差分比率を読みとりながら
画像を比較できないのかなぁ?


657 :名無しさん@お腹いっぱい。:03/10/29 14:12
昔は連番ファイル落とすためにwgetやshを駆使して頑張ってた時期もあった。
たとえばこことか。
ttp://www.taiwankiss.com/board1/data/82585.html
(白石ひより、藻無し、556MB + 567MB、ラブマ分割、パス未発表)

今は各種P2Pがあるから手間いらずで外付け120GBもエロで満杯だよ。

658 :名無しさん@お腹いっぱい。:03/10/29 22:59
>>658
どのP2P使ってるか教えれ

659 :644:03/10/31 23:42
レスありがとさんです。

>GQview とか
フリーでこのテのツールがあるとは知りませんでした。
別のツールでは、作者が「コマンド実行で類推するようにしたいな」って
書いてたんで、もう少し様子見かなと。
もしくは、これらツールから該当コードをぶっこぬいて、コマンドラインで
実行できるようデッチ上げるのも手かなと。

>binary diffみたいのを使って差分をとって差分比率を読みとりながら
>画像を比較できないのかなぁ?
#漏れも画像関係まったくの素人なんですが・・・。
jpegを一度bitmapか何かに展開してからゴリゴリ比較って動きかな?
暇を見てちょっと試してみます。

時間を見つけて、いずれかの方法をちょっとやってみます。
ありがとうございやした。

660 :名無しさん@お腹いっぱい。:03/11/13 05:03
俺は半角板を自動巡回して URI 拾って wget のリクエスト作る Ruby スクリプト書いた
落ちてきた画像は一通り見てお気に入りの奴はお気に入りディレクトリに入れて
それ以外は全部ファイル名を MD5 にリネームするスクリプトで変換してから
画像置き場ディレクトリに放り込んでる

画像的には同一なんだけどデータとしては違うというケースはうちでも発生してるな
ちゃんと判定する方法なんて無いような気がしてたから諦めてたけど
ここらへん研究してみると面白いかもな

>>652
(b)(c)のケースなんだけど、もし画像サイズが同じなら、
jpeg のエンコード時の特性の違いがあるのかもな
もしそうなら jpeg のエンコードに特化した画像判別があればいいのかも


661 :名無しさん@お腹いっぱい。:03/11/14 22:06
>>660
JPEGは符号化時のクオリティ設定で出力がまったく違います。
また、どこかのwebで拾った同じJPEGファイルに端を発した画像でも
デコード・エンコードを繰り返して劣化したもの、コメントが変わった
・取り除かれたもの、huffmanコードを最適化したものなどいくらでも
バリエーションがありますので、結局デコード後の画像として比較する
しかないのではないかと。

662 :名無しさん@お腹いっぱい。:03/11/22 23:24
エロ画像とかよか普通の女の子画像をダウンロードしたくなりました。
で、
ttp://avbuzz.com/bbs/model/list.php
を見つけたわけですが。
ここのを大きい画像だけ上手にダウンロードしたいんだけど、難しいです。
良い方法、なんか思いつきませんか?

663 :名無しさん@お腹いっぱい。:03/11/23 00:16
うーむ。
% w3m -dump_source 'http://avbuzz.com/bbs/model/diss.php?id=152568' | sed -n 's@ *<img src=\(.*\) vspace=10><br>@\1@;s@^u@http://avbuzz.com/bbs/model/u@;/^http/p'


664 :名無しさん@お腹いっぱい。:03/11/23 03:04
>>663
出きたよー。
ありがと。

665 :名無しさん@お腹いっぱい。:03/11/25 15:58
wgetを使ってあるディレクトリ以下にある(cgiソース含)ファイルを無差別にDLする方法ありませんかね。

666 :名無しさん@お腹いっぱい。:03/11/25 16:00
man wget

667 :名無しさん@お腹いっぱい。:03/11/25 16:08
>>666
やったけど詳しく書いてないみたいだけど、、、

wget -r --ignore-length <URL/>

で良いかな?

668 :名無しさん@お腹いっぱい。:03/11/25 16:16
info wget

669 :名無しさん@お腹いっぱい。:03/11/25 17:19
cgiファイルらしきもんはダウンロードできたけれど、やっぱソースが見れないです。
ソースの形でまるごとやりたいんですけど。

670 :名無しさん@お腹いっぱい。:03/11/25 17:25
ソースが見れないように設定してあるHTTP鯖から、
ソースを落とすことはできませんヨ。当たり前だろ。

671 :名無しさん@お腹いっぱい。:03/11/25 17:31
やっぱ、そうだったか。
たまたま、ソースもまるごと落せたこともあったけど、それはそこの管理者が
物凄くアホだったってわけね。

俺もな、、、涙;

672 :名無しさん@お腹いっぱい。:03/11/25 17:35
そもそも、読み出し権限無いかもしれないし。

673 :名無しさん@お腹いっぱい。:03/11/25 22:14
>>671
というかCGIとして実行されるように設定されてるファイルは、絶対にGETできんよ。
そのファイルを指定したリクエストが来たらCGIとして実行するようになってる
訳だから、(そのWebサーバ経由では)ファイルを取りようが無い。
ソースを落とせたことがあるんなら、多分それは、CGI実行設定されてない
ディレクトリに物置のように置いて有ったのだろう。逆に言うとそれは
「動いていない」プログラムだから、正しいという保証はどこにも無い。

674 :名無しさん@お腹いっぱい。:03/11/26 00:38
jpeginfo でこわれているjpegファイルの判定を十分にできますか?
なんか、xv で表示できないファイルがだいぶ残るのですが。


675 :名無しさん@お腹いっぱい。:03/11/26 01:21
XVの設定が古いせいではないかと…

ImageMagickとかなら表示できたりしない?

676 :名無しさん@お腹いっぱい。:03/11/26 01:53
そうですか。もうすこしいろいろためしてみます。


677 :名無しさん@お腹いっぱい。:03/11/26 14:35
% perl slodziutka.erospace.pl

ドゾー



678 :名無しさん@お腹いっぱい。:03/12/17 20:51
最新のwgetって~を%7Eに変換しないのか…

679 :名無しさん@お腹いっぱい。:04/01/02 16:41
「げっとぴっく」ってやつ使ってるんだが
「指定のURLには画像が存在しません」とかいうエラーが出てきてdlできん

680 :名無しさん@お腹いっぱい。:04/01/02 16:44
>>679
板違い。

681 :名無しさん@お腹いっぱい。:04/01/05 09:57
http://gallery3.pure-angel.net/kasumi_nakane/index.html

なんだけど、wget が使用不能です(downloaderとして弾かれる)。
猛者の皆様、お助け下さい。

682 :名無しさん@お腹いっぱい。:04/01/05 10:22
>>681
あんま好きなおなごじゃないな

wget --user-agent=Mozilla --referer http://gallery3.pure-angel.net/kasumi_nakane/01/ http://gallery3.pure-angel.net/kasumi_nakane/01/nakane_kasumi_0{0,1,2,3,4,5,6,7,8,9}{0,1,2,3,4,5,6,7,8,9}.jpg


683 :名無しさん@お腹いっぱい。:04/01/05 14:01
> wget --user-agent=Mozilla --referer http://gallery3.pure-angel.net/kasumi_nakane/01/ http://gallery3.pure-angel.net/kasumi_nakane/01/nakane_kasumi_0{0,1,2,3,4,5,6,7,8,9}{0,1,2,3,4,5,6,7,8,9}.jpg


ありがとうございます!!
--refererの使用まで思い至りませんでした。

684 :名無しさん@お腹いっぱい。:04/01/08 07:39
>>578の方法につての質問です。
ディレクトリが同じでその中のファイルの例が
img20031113192714.jpg 13 Nov 03 19:27 6.2Kb
img20031113210116.jpg 13 Nov 03 21:01 7.4Kb
img20031113210157.jpg 13 Nov 03 21:01 22.1Kb
・・・
こんな感じになってます。これを一気に落としたいのですが
いかんせん時分秒まで回してたらやばいことになりそうなので
wget http://~ の~部分だけループできたらと思います。
で,その場所がディレクトリサービスONだったので
starsuiteで上のようなファイルリストを作りました。
でもシェルスクリプトの動作がイマイチわかりません。

cat<<END |wget http://nanntokakanntoka/
2003xxxxxxxx.jpg
...
END

の足りない部分を埋めていただきたく思います。
Solaris9でインストールしたときのsh使ってます。

それ以前にwgetでディレクトリサービスONの
アドレスから.jpg .png .gifの絶対パス取って
まとめてゲット~なんて出来ればなお良いんですけど
私にはさっぱりひらめきがないのでもし良かったら
ご教示願います

685 :684:04/01/08 07:53
あーん最悪。wget -r http://www.nantara/
だけでぜーんぶおとせた。ディレクトリサービスオンだとこんなことになるのね。
って書き込んでる間に396filesオチター

686 :名無しさん@お腹いっぱい。:04/01/08 09:52
何が最悪なんだ?

687 :名無しさん@お腹いっぱい。:04/01/08 13:32
684がhelpもinfoも読まずにカキコしちゃった自身の
ソコツさ加減を最悪と称しているのでせう

688 :名無しさん@お腹いっぱい。:04/01/09 02:37
echo "wget http://www.hoge.he.jp/hoge/ero{001..100}.jpg" | zsh -s

689 :名無しさん@お腹いっぱい。:04/01/09 13:54
>>685
URL希望


690 :名無しさん@お腹いっぱい。:04/01/17 18:58
あの、awkでしかも汚いですが一応動きます。
baseurl と files 変えたら他の女の子のもいけます。
よければ添削してやってください。

BEGIN{
baseurl="http://www.tokyo-247.net/image/37_maya/maya1/t2_maya001.jpg"
files = 55

split(baseurl,url,"1/")
url[2] = substr(url[2],1,index(url[2],"0"))

for(i=1; i<=files; i++){
path = url[1] int((i-1)/15)+1 "/"
if(i<10){ number = "0" i }else{ number = i}
file = url[2] number ".jpg"
print file
wgetcmd = "wget -nc " path file
system(wgetcmd)
}
}


691 :名無しさん@お腹いっぱい。:04/01/18 00:35
wgetのオプションでquotaを指定すると取得するファイルの上限をきめられるそうですが
逆に下限を決める事はできないのでしょうか?
HDDがすげー遅いので、ディスクアクセスをできるだけ減らしたいっす

692 :名無しさん@お腹いっぱい。:04/01/18 00:39
>>690
わざわざ変なスクリプトかいて暇ですな。

693 :名無しさん@お腹いっぱい。:04/01/18 00:45
>>690
ファイルごとに wget を起動するんでなく
URL を一括で wget に食わせてやる方がよいと思う。
あとせっかく wget 使うなら便利なオプションがいろいろあるので調べるが吉。

694 :690:04/01/18 08:09
ご意見ありがd。
>692
九段のサイトでは画像を小出しにしてまして
定期的に巡回して、うp分を一括ダウソする必要があり
まぁ暇だったこともあってこうなりまつた。
>693
その向きでまたチャレンジしまつ。

695 :名無しさん@お腹いっぱい。:04/01/18 11:26
> ご意見ありが??。
まともなunixerならまず使おうとは思わん記号だな

696 :名無しさん@お腹いっぱい。:04/01/18 11:53
>>695
というか、入力方法がわからんよ
emacsでctrl-q hoge fuga とかするの?

697 :名無しさん@お腹いっぱい。:04/01/18 11:55
そういえば、どこかのスレに
「(・∀・)イラネ」って書いてあったのを見たことあるよ

698 :名無しさん@お腹いっぱい。:04/01/18 15:40
>695
わざわざ使おうとは思わんけど、
unixでは読めないのがあたりまえみたいな
書きかたをされると( ´゚д゚`)

699 :名無しさん@お腹いっぱい。:04/02/08 02:27
連番のH画像じゃないんですが、
http://celeb.goldengate.hu/site_videos.php3
ここの MPEG全部落したいんですが、あれこれやっても
うまくできないのです。お知恵を貸していただければ、
嬉しいのですが。

700 :名無しさん@お腹いっぱい。:04/02/08 03:24
"あれこれ"やったことを書け。

701 :名無しさん@お腹いっぱい。:04/02/08 14:32
リンクを解析して辿り、目的の拡張子だけをダウソするPerlスクリプトを書いたんですが・・・再発明ですか?
個人的には十分楽しんだからウマーだけど。


702 :名無しさん@お腹いっぱい。:04/02/08 14:48
            / / }
           _/ノ.. /、
           /  <   }
      ry、     {k_ _/`;,  ノノ パンパン
    / / }      ;'     `i、 
   _/ノ../、   _/ 入/ /   `ヽ, ノノ
  / r;ァ  }''i" ̄.   ̄r'_ノ"'ヽ.i   ) ―☆
 {k_ _/,,.'  ;.  :.      l、  ノ  
    \ `  、  ,i.    .:, :, ' / / \
     ,;ゝr;,;_二∠r;,_ェ=-ー'" r,_,/   ☆


【ラッキーレス】
このレスを見た人はコピペでもいいので
10分以内に3つのスレへ貼り付けてください。
そうすれば14日後好きな人から告白されるわ宝くじは当たるわ
出世しまくるわ体の悪い所全部治るわでえらい事です


703 :名無しさん@お腹いっぱい。:04/02/08 15:29
先生!!>>702の頭の悪さが直っていません!


704 :名無しさん@お腹いっぱい。:04/02/08 15:50
HTML::LinkExtor とか使えばいいのに。
出力は、fork しまくって wget を同時に走らすスクリプトに渡すと。

まあ、手元にあるんだが、希望者がいれば公開してあげます。

705 :名無しさん@お腹いっぱい。:04/02/08 17:50
>>704
公開希望

706 :名無しさん@お腹いっぱい。:04/02/08 18:24
今痔が出来て痛くてたまらないからAA貼り付けようかな

707 :名無しさん@お腹いっぱい。:04/02/08 22:22
僕もがんばってみた。「はじめてのC言語」とそれから「関数の使いかた」少しよんだ。


#include <stdio.h>
#include <string.h>
#include <math.h>
#define MAXSTRING 255

struct address{
char preaddr[MAXSTRING];
char scope[MAXSTRING];
char aftaddr[MAXSTRING];

int statnum;
int endnum;
int digit;
};

/* 続く */

708 :名無しさん@お腹いっぱい。:04/02/08 22:23
void numaddr( struct address *p )
{
char cset[] = "-";
p->digit = strcspn( p->scope, cset );
p->statnum = atoi( strtok( p->scope, cset ));
p->endnum = atoi( strtok( NULL, cset ));
}

void printaddr( struct address *p )
{
int i, n, t;
for ( n = p->statnum; n <= p->endnum; n++ )
{
fprintf( stdout, "%s", p->preaddr );
if ( n == 0 ) i = 0;
else i = log10(n);
for ( t = i; t < p->digit - 1; t++ )
fprintf( stdout, "0");
fprintf( stdout, "%d%s\n", n, p->aftaddr );
}
}

/* 続く */

709 :名無しさん@お腹いっぱい。:04/02/08 22:24
int main( int argc, char *argv[] )
{
int i;
char cset[] = "[]";
struct address multiaddr[argc];

if ( argc <= 1 ) fprintf( stdout, "%s [word]...\n", argv[0] );
else
{
for ( i = 1; i < argc; i++ )
{
strcpy ( multiaddr[i].preaddr, strtok( argv[i], cset ));
strcpy ( multiaddr[i].scope, strtok( NULL, cset ));
strcpy ( multiaddr[i].aftaddr, strtok( NULL, cset ));

numaddr(&multiaddr[i]);
printaddr(&multiaddr[i]);
}
}

return 0;
}

/* おしまい */

710 :707:04/02/08 22:28
math.h をつかうと
#gcc -o getopai getopai.c -lm
と -lm つけるのなんでだろ?

711 :707:04/02/08 22:35
>>709 やっぱこう↓しとく
"s/\[word\]/opai\[001-100\].jpg/"

712 :699:04/02/08 23:49
700さん
ここむずかしいですね。どういう仕組みなんだろう、このHP。
画像もたくさんあるみたいなんだけど、すぺてPHPで開いてきます。
wget -r --user-agent=Mozilla --referer http://celeb.goldengate.hu http://celeb.goldengate.hu/
当然 これでは無理ですね
だめぽ…

713 :名無しさん@お腹いっぱい。:04/02/09 12:51
難しくはない。ただ、ファイル名が結構適当なので面倒臭い。
wget http://celeb.goldengate.hu//celebs_foreign_pic/Dido/dido{043..045}.jpg


714 :名無しさん@お腹いっぱい。:04/02/09 13:03
>>712
動画ウィンドウの表示にはJavaScriptを利用してるみたいなので
wgetだけでは無理かと

715 :699:04/02/09 23:45
うん どうやってするのがスマートな解決なんでしょうか。
僕には皆目検討もつきません。
やっぱ 一つ一つ落すしかないのかな。


716 :名無しさん@お腹いっぱい。:04/02/10 03:47
--user-agentの指定ってどういうとき必要になるの?

717 :名無しさん@お腹いっぱい。:04/02/10 03:56
偽装したい時

718 :名無しさん@お腹いっぱい。:04/02/10 08:30
>>716
指定しないと落とせないとき。

719 :名無しさん@お腹いっぱい。:04/02/10 10:44
アクセスログ読んでる奴に嫌がらせしたいとき。

720 :名無しさん@お腹いっぱい。:04/02/11 12:14
>>718
--user-agentを指定しアクセス制限を回避することは
不正アクセス禁止法の第3条2項2号に違反するため、
一年以下の懲役又は五十万円以下の罰金に処されます。

721 :名無しさん@お腹いっぱい。:04/02/11 13:22
>>720
user agentは不正アクセス禁止法の識別符号には該当しない。

722 :名無しさん@お腹いっぱい。:04/02/11 15:23
詳しい人100人集めたら90人くらいまではそう言うと思うけど、裁判所的にはどうだろね。
URLと一緒で意図絡んでるからトチ狂った判断出される可能性はなきにしもあらずげ。

723 :名無しさん@お腹いっぱい。:04/02/11 20:32
>>721
MS的にはおもしろくないだろうよ?

724 :720:04/02/11 23:11
>720はネタなんで無視してくれて構いません。
ただ、一応補足しておくと…

>>721
識別符号を使用した不正アクセス行為を規定しているのは第3条2項1号。
第3条2項2号は識別符号以外の情報を使用した不正アクセスについて
規定しています。
http://www.ipa.go.jp/security/ciadr/law199908.html

725 :名無しさん@お腹いっぱい。:04/02/12 00:07
もしかして、厳密にいうと違反なわけ?

726 :名無しさん@お腹いっぱい。:04/02/12 01:51
>>725
誰かがUA偽装のみで訴えられて裁判所が何らかの判断下すまで違反だとは誰も断言できない。

条文にアクセス方法についてもうちょい具体的に書いておいてくれりゃよかったんだけどね。

727 :名無しさん@お腹いっぱい。:04/02/12 05:09
telnetしたり自分でUA組んだ時、
打ち間違えたりリテラル書き間違えてたらタイーフォか。ありえねー。
標準で偽装可能な Opera はタイーフォだな。(w
大体、クライアント側が偽装してるかどうかを立証する方法がないわな。

ただ裁判官はこの手の知識は絶無だし、腐った弁護士は少なくないからなぁ。
やな世の中だ。

728 :名無しさん@お腹いっぱい。:04/02/12 15:31
なんか変な人が。

>>727
UserAgentを普段書き換えることや書き換え機能がついてること自体は問題ない。
* UserAgentでアクセスの制限をしているサイト * へ、UserAgentを書き換えて
アクセスしたことが問題(になるかもしれないのはやだなあ)という話。

729 :名無しさん@お腹いっぱい。:04/02/12 19:11
なる可能性はあるな。国内の法律では不正アクセス行為の禁止等に関する法律の
第3条3項に以下の記述がある

>三 電気通信回線を介して接続された他の特定電子計算機が有するアクセス制御機能に
>よりその特定利用を制限されている特定電子計算機に電気通信回線を通じてその
>制限を免れることができる情報又は指令を入力して当該特定電子計算機を作動させ、
>その制限されている特定利用をし得る状態にさせる行為


ここの「制限を免れることが出来る情報」にuseragentが含まれるかどうかが争点だろう。

俺としてはUAはそもそも信憑性にないものだし,UAによるアクセス制御自体が
無効だと思ってる。ケータイのサイトなんかでよくあるけど,CDMAなんかopenwave.com
からブラウザ拾ってきて使えばPCでMobile Browserのagentが出せる。
この場合は有罪?無罪?

アクセス制御にはIPアドレスなどを使うべきだろう。

俺の結論 合法と解釈する。


730 :名無しさん@お腹いっぱい。:04/02/12 22:13
アクセス制限とは認証のことであり、UAのチェックは認証としての要件を満たさない

以上終了

731 :名無しさん@お腹いっぱい。:04/02/13 00:28
>>730
前提を示す必要があるな。

732 :名無しさん@お腹いっぱい。:04/02/13 02:39
もまえら暇だなぁ。

733 :名無しさん@お腹いっぱい。:04/02/13 03:27
そんなことより違法なエロ画像の URL 下さい。

734 :名無しさん@お腹いっぱい。:04/02/13 04:16
「うらぼん」でぐぐればいいのでは?

735 :名無しさん@お腹いっぱい。:04/02/13 07:56
これですか??
ttp://www.chuouji.or.jp/urabon/urabon.htm
ありがとうございます!

736 :名無しさん@お腹いっぱい。:04/02/13 08:48
おお、これは本当にありがたい。ありがたやありがたや (一人一) ナムー

737 :名無しさん@お腹いっぱい。:04/02/13 12:12
これどうやっておとすのでしょう
wget --referer では落とせません
URLリストをテキストに出力して別のGUIダウンローダにコピペすれば落とせるのですが。
ちなみにwget -iでは無理でした
ttp://www.free-adult-hosting.net/bookoff014/book/text4.htm
の真ん中右Sampleってやつです01〜41
お願いします

738 :名無しさん@お腹いっぱい。:04/02/13 12:25
user-agentだろどうせ

739 :名無しさん@お腹いっぱい。:04/02/13 12:34
cookie利用の可能性も

740 :名無しさん@お腹いっぱい。:04/02/13 12:40
% wget --user-agent=Mozilla http://www.free-adult-hosting.net/bookoff014/BOOK010_004/0{01..41}.jpg

741 :名無しさん@お腹いっぱい。:04/02/13 14:27
連番の蓮画像を一気にダウンロードする
スレに見えた。

742 :名無しさん@お腹いっぱい。:04/02/13 14:34
>>741
3年前から同じスレタイですが。

743 :741:04/02/13 15:02
ようするに見る側の問題ってこった。

744 :名無しさん@お腹いっぱい。:04/02/13 15:11
>740
ありがとぉ

745 :名無しさん@お腹いっぱい。:04/02/14 00:51
ttp://kawaii.clawz.com/hentv/max.html
ここってどうやって巡回すればいい?
ヘッダがないからwgetじゃエラーになるんだけど

746 :名無しさん@お腹いっぱい。:04/02/14 03:58
よ〜するに、M$IEもMozillaを騙っているので偽装であると...φ(.. )

747 :名無しさん@お腹いっぱい。:04/02/14 04:25
              ,. -‐-
          「`Y´|    ヽ 〜
           Y⌒ソノノリ)) )〉
          i (ll (〔i ,i〕{ノ
     __    リ从ゝ~ (フ/
     {{゙ァ‐  、  '⌒ T
      `ーへ ヽ ィ   !
         ー' ,ノ  ,
           , ´   '/
.     ,.、     !   ヽ'
    /   ヽ. /ヽ.   ヽ
      ー'´\ '  /ヽ  ヽ
         ー'   \  ヽ   _
              ヽ. ヽ'´ /
                 \ _/

【小学6年】山手線(渋谷駅)で全裸の少女が補導 part12【昼間から(画像有り)】
http://pc.2ch.net/test/read.cgi/pcnews/1074297496/l50

748 :名無しさん@お腹いっぱい。:04/02/14 04:28
urlがpcnewsでは開いて見る気もせんが、
AAは良い出来だから今回だけは許してやろう。

749 :名無しさん@お腹いっぱい。:04/02/14 12:30
pcnewsに飛ばすならせめて
ネットで公開して本人補導とかそういうのにしてくれないとな。

750 :名無しさん@お腹いっぱい。:04/02/15 04:28
>>735
功徳は生きてるうちに

751 :名無しさん@お腹いっぱい。:04/02/17 17:54
http://smmonkey.pwp.blueyonder.co.uk/zxa1.html
H画像ではない (連番ではある) けどこれはむっ、と思った。
この手で対処されたらお手上げっぽくね?

# ちなみに違法ページではないよ。Amstrad社のケツの穴はデカいなあ

752 :名無しさん@お腹いっぱい。:04/02/18 23:10
ttp://www.macromedia.com/software/flash/open/licensing/fileformat/
一応仕様は公開はされてるけどな。

753 :名無しさん@お腹いっぱい。:04/02/20 04:08
あんまりサーバに負荷かけちゃ駄目だよ。

#!/bin/bash

if [ ! -d ./OUT ]; then
mkdir OUT
fi

URL="http://thebbs.jp"
GETNUM="1024"
UA="Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; .NET CLR 1.1.4322)"

wget -U "$UA" -N "${URL}/up1/"
LIST=$(cat index.html | egrep '[0-9]+\.html' | sed 's/.*href=\"\([0-9][0-9]*\.html\)\".*/\1/g')
PAGES=$(for name in ${LIST} ; do echo "${URL}/up1/${name}" ; done )

wget -U "$UA" -N -nv -w 1 --random-wait ${PAGES}

for name in $(grep 'href=/sum.html\?' 1[0-9]*.html \
| sed 's+.*href=.*/\([0-9][0-9]*\.\(jpg\|png\|bmp\|gif\)\) .*+\1+g'\
| sort | tail -n ${GETNUM} )
do
wget -N -nv -U "$UA" -w 4 --random-wait -O ./OUT/${name} "http://thebbs.jp/up1/img/${name}"
done


でもここから選別するのが大変な罠。


754 :753:04/02/20 04:40
あ、そうそう。
急に変なアクセス増えて何かの対策とられたりしないように次の事くらいは守って使って。
UAは絶対変える。
GETNUMは増やさない。
-w は減らさない。
--random-waitは外さない。

管理者に迷惑かからないようにしてな。まじで。
一晩くらいかけてマターリ落して細く長く楽しむのが吉だべよ。
つっても楽しめる画像があんまり無いんだけど。


755 :名無しさん@お腹いっぱい。:04/02/21 01:23
自分で生HDDをつけるということは、少なくてもパーティションの作成から
ファイルシステムやswapの作成というところから始めなきゃいけない訳だし
unix未経験者にはハードル高いんじゃないかな、少なくてもvi使えないと話にならんし。
でもこれから勉強したい人には良いかもね。


756 :名無しさん@お腹いっぱい。:04/02/21 01:38
↑なかなか上品なレスだけど、頭の中ではエロエロなことばかり考えているんですね。

757 :名無しさん@お腹いっぱい。:04/02/21 16:20
誤爆かと思った罠

758 :名無しさん@お腹いっぱい。:04/02/22 07:14
エロは*習熟の源です

759 :名無しさん@お腹いっぱい。:04/03/12 00:34


760 :名無しさん@お腹いっぱい。:04/03/15 03:48
ほしゅ

195 KB
■ このスレッドは過去ログ倉庫に格納されています

★スマホ版★ 掲示板に戻る 全部 前100 次100 最新50

read.cgi ver 05.04.02 2018/11/22 Walang Kapalit ★
FOX ★ DSO(Dynamic Shared Object)