Paradoxテーブルのインデックスが大量データに成ると壊れる

解決


さくら  2005-07-15 20:17:31  No: 16389  IP: [192.*.*.*]

BDE5.2を利用してParadoxデータを作成していますが、大容量(50,000レコード、20メガ)位になると二次インデックスが壊れる事があります。
修正プログラムを作って、対応していますが、こんなもんなんですか?
何方か教えて下さい。

編集    削除
3K  2005-07-16 00:22:41  No: 16390  IP: [192.*.*.*]

>>二次インデックスが壊れる事があります。
DBが壊れるのではなく、二次インデックスが壊れるのですか?

ちなみに私もParadoを結構使っていますが100Mで100万レコード位
問題無く動いてますが...。

編集    削除
なつお  2005-07-17 07:40:06  No: 16391  IP: [192.*.*.*]

>こんなもんなんですか?
もちろんParadoxが犯人ではありません。BDEが犯人です。当方も
複雑なindexファイルだとよく壊れています。キャッシュだとかいろい
ろ検索したことを試しましたが、結局解決に至っておりません。

編集    削除
3K  2005-07-19 00:25:51  No: 16392  IP: [192.*.*.*]

>>なつお 2005/07/16(土) 22:40:06
>>複雑なindexファイルだとよく壊れています。

今後の参考にさせていただきたいのですが、
どのようなindexファイルだと
壊れやすいのか教えて頂けないでしょうか。

編集    削除
HOta  2005-07-19 04:28:37  No: 16393  IP: [192.*.*.*]

FireBirdなんかに乗り換えたらどうですか?

編集    削除
Kenny  2005-07-21 09:41:01  No: 16394  IP: [192.*.*.*]

Paradoxを使う場合、BDE環境設定でLOCAL SHAREをTREUにしないと壊れる、と言うTipsを見つけてそのように設定しましたが、扱うデータ量が少ないためかそもそも壊れないので検証できていません…。

編集    削除
峠のおじさん  2005-07-26 02:12:29  No: 16395  IP: [192.*.*.*]

BDEのBLOCK SIZEの値を大きくしてみたらどうですか?
ついでにDBの項目名やインデックス名を半角文字にしてみては?

編集    削除
さくら  2005-07-30 01:48:34  No: 16396  IP: [192.*.*.*]

皆さん、ご意見、有難う御座いました。
Kennyさんの、ご意見をテストしてみたいと思います。

編集    削除
さくら  2005-08-03 17:43:14  No: 16397  IP: [192.*.*.*]

峠のおじさん、ご意見有難うございます。
BDEのBLOCK SIZEの値を大きくしてみると、多少は改善されますがデーター量が増えるとエラーは、発生します。
BDE環境設定でLOCAL SHAREをTREUに100万レコード、300メガほどのデーターでファイルを作りました。結果はの二次インデックスに障害が発生しました。  結論、ファイルはあまり大きくしない。

編集    削除